Kliknij ten link, aby zobaczyć inne rodzaje publikacji na ten temat: Modèles à valeurs booléennes.

Rozprawy doktorskie na temat „Modèles à valeurs booléennes”

Utwórz poprawne odniesienie w stylach APA, MLA, Chicago, Harvard i wielu innych

Wybierz rodzaj źródła:

Sprawdź 50 najlepszych rozpraw doktorskich naukowych na temat „Modèles à valeurs booléennes”.

Przycisk „Dodaj do bibliografii” jest dostępny obok każdej pracy w bibliografii. Użyj go – a my automatycznie utworzymy odniesienie bibliograficzne do wybranej pracy w stylu cytowania, którego potrzebujesz: APA, MLA, Harvard, Chicago, Vancouver itp.

Możesz również pobrać pełny tekst publikacji naukowej w formacie „.pdf” i przeczytać adnotację do pracy online, jeśli odpowiednie parametry są dostępne w metadanych.

Przeglądaj rozprawy doktorskie z różnych dziedzin i twórz odpowiednie bibliografie.

1

Santiago, Suárez Juan Manuel. "Infinitary logics and forcing". Electronic Thesis or Diss., Université Paris Cité, 2024. http://www.theses.fr/2024UNIP7024.

Pełny tekst źródła
Streszczenie:
Les principaux résultats de cette thèse sont liés au forcing, mais notre présentation bénéficie de sa mise en relation avec un autre domaine de la logique: la théorie des modèles des logiques infinitaires. Une idée clé de notre travail, qui était plus ou moins implicite dans les recherches de nombreux auteurs, est que le forcing joue un rôle en logique infinitaire similaire à celui joué par le théorème de compacité en logique du premier ordre. Plus précisément, de la même manière que le théorème de compacité est l'outil clé pour produire des modèles de théories du premier ordre, le forcing peut être l'outil clé pour produire les modèles des théories infinitaires. La première partie de cette thèse explore la relation entre les logiques infinitaires et les modèles à valeurs booléennes. Une propriété de consistance est une famille d'ensembles de formules non contradictoires, fermée sous certaines opérations logiques naturelles. Les propriétés de consistance reproduisent dans le contexte des logiques infinitaires la technique donnée par la méthode de résolution pour produire des modèles d'une formule du premier ordre; elles sont l'outil standard pour produire des modèles de formules infinitaires non contradictoires. Le premier résultat majeur que nous établissons dans cette thèse est le Théorème d'Existence des Modèles Booléens, affirmant que toute formule dans un ensemble qui est dans une propriété de consistance possède un modèle à valeurs booléennes avec la propriété de "mixing", et renforce le résultat original de Mansfield. Le Théorème d'Existence des Modèles Booléens nous permet de prouver trois résultats supplémentaires dans la théorie des modèles des logiques infinitaires munis de la sémantique des modèles à valeurs booléennes avec la propriété de ``mixing": un théorème de complétude par rapport à un calcul de type Gentzen, un théorème d'interpolation et un théorème d'omission des types. Cependant, nous croyons que le résultat central de cette partie de la thèse est le Théorème de Compacité Conservative. Dans la poursuite d'une généralisation de la compacité du premier ordre pour les logiques infinitaires, nous introduisons le concept de "renforcement conservatif" et de "conservativité finie". Nous soutenons que la généralisation appropriée de la consistance finie (relative à la sémantique de Tarski pour la logique du premier ordre) est la conservativité finie (relative à la sémantique donnée par les modèles à valeurs booléennes). À notre avis, ces résultats nous permettent de soutenir que: Les modèles à valeurs booléennes avec la propriété de "mixing" fournissent une sémantique naturelle pour les logiques infinies. Dans la seconde partie de la thèse, nous nous appuyons sur les résultats de la première partie pour aborder la question suivante: pour quelle famille de formules infinitaires peut-on forcer l'existence d'un modèle de Tarski sans détruire les sous-ensembles stationnaires? Kasum et Velickovic ont introduit une caractérisation des formules pour lesquelles un modèle de Tarski peut être forcé par un forcing préservant les ensembles stationnaires (AS-goodness). Leur travail s'appuie sur le résultat révolutionnaire d'Asperò et Schindler. Nous définissons la propriété ASK - une variante de l'AS-goodness - que nous utilisons également de la même manière que Kasum et Velickovic. Il est démontré que pour toute formule ayant la propriété ASK, on peut forcer l'existence d'un modèle de Tarski d'une manière qui préserve les ensembles stationnaires. La preuve de ce résultat s'appuie sur la perspective de la théorie des modèles de forcing présentée dans la première partie de la thèse, tout en introduisant une nouvelle notion de forcing itéré. Cette présentation du forcing itéré est étroitement liée au Théorème de Compacité Conservateur, soulignant à nouveau l'analogie entre les paires (forcing, logiques infinitaires) et (compacité, logique du premier ordre)
The main results of this thesis are related to forcing, but our presentation benefits from relating them to another domain of logic: the model theory of infinitary logics. In the 1950s, after the basic framework of first-order model theory had been established, Carol Karp, followed by Makkai, Keisler and Mansfield among others, developed the area of logic known as "infinitary logics". One key idea from our work, which was more or less implicit in the research of many, is that forcing plays a role in infinitary logic similar to the role compactness plays in first-order logic. Specifically, much alike compactness is the key tool to produce models of first-order theories, forcing can be the key tool to produce the interesting models of infinitary theories. The first part of this thesis explores the relationship between infinitary logics and Boolean valued models. Leveraging on the translation of forcing in the Boolean valued models terminology, this part lays the foundations connecting infinitary logics to forcing. A consistency property is a family of sets of non-contradictory sentences closed under certain natural logical operations. Consistency properties are the standard tools to produce models of non-contradictory infinitary sentences. The first major result we establish in the thesis is the Boolean Model Existence Theorem, asserting that any sentence which belongs to some set which is in some consistency property has a Boolean valued model with the mixing property, and strengthens Mansfield's original result. The Boolean Model Existence Theorem allows us to prove three additional results in the model theory of Boolean valued models for the semantics induced by Boolean valued models with the mixing property: a completeness theorem, an interpolation theorem, and an omitting types theorem. These can be shown to be generalizations of the corresponding results for first order logic in view of the fact that a first order sentence has a Tarski model if and only if it has a Boolean valued model. However we believe that the central result of this part of the thesis is the Conservative Compactness Theorem. In pursuit of a generalization of first-order compactness for infinitary logics, we introduce the concepts of conservative strengthening and of finite conservativity. We argue that the appropriate generalization of finite consistency (relative to Tarski semantics for first order logic) is finite conservativity (relative to the semantics given by Boolean valued models). The Conservative Compactness Theorem states that any finitely conservative family of sentences admits a Boolean valued model with the mixing property. In our opinion these results support the claim: Boolean-valued models with the mixing property provide a natural semantics for infinitary logics. In the second part of the thesis we leverage on the results of the first part to address the following question: For what family of infinitary formulae can we force the existence of a Tarski model for them without destroying stationary sets? Kasum and Velickovic introduced a characterization of which sentences can be forced by a stationary set preserving forcing (AS-goodness). Their work builds on the groundbreaking result of Asperò and Schindler. We define the ASK property -a variant of AS-goodness- which we also employ to the same effect of Kasum and Velickovic. It is shown that for any formula with the ASK-property, one can force the existence of a Tarski model in a stationary set preserving way. The proof of this result builds on the model theoretic perspective of forcing presented in the first part of the thesis, and does so introducing a new notion of iterated forcing. This presentation of iterated forcing is strictly intertwined with the Conservative Compactness Theorem, thereby emphasizing again the analogy between the pairs (forcing, infinitary logics) and (compactness, first-order logic)
Style APA, Harvard, Vancouver, ISO itp.
2

You, Alexandre. "Théorie des valeurs extrêmes et modèles à seuils". Paris 6, 2009. http://www.theses.fr/2009PA066701.

Pełny tekst źródła
Style APA, Harvard, Vancouver, ISO itp.
3

Kachour, Maher. "Une nouvelle classe de modèles autorégressifs à valeurs entières". Rennes 1, 2009. https://tel.archives-ouvertes.fr/tel-00442146.

Pełny tekst źródła
Streszczenie:
Dans certaines situations il devient nécessaire de traiter les séries chronologiques à valeurs entières. Au premier regard, l'analyse de telle série peut présenter quelques difficultés, notamment si l'analyse est basée sur quelques modèles stochastiques. Ces modèles doivent refléter la particularité entière de la série observée. De nombreuses tentatives ont été faites pour définir des modèles qui peuvent être utilisés pour décrire les séries chronologiques à valeurs entières. La plupart des modèles proposés sont basés sur l'opérateur d'amincissement et possèdent les mêmes propriétés que les modèles à valeurs réelles bien-connus dans la littérature. L'objectif de cette thèse est d'étudier les modèles autorégressifs à valeurs entières. Nous introduisons une nouvelle classe de modèles basés sur l'opérateur d'arrondi. Par rapport aux modèles existants, la nouvelle classe a plusieurs avantages: structure d'innovation simple, coefficients de régression avec des signes arbitraires, valeurs négatives possibles pour la série chronologiques et pour la fonction d' autocorrélation. Nous étudions la stationnarité des modèles et la consistance forte de l'estimateur des moindres carrés proposé pour estimer les paramètres. Nous analysons quelques séries chronologiques à valeurs entières bien-connues avec les modèles introduits
In many practical situations we deal with integer-valued time series. The analysis of such a time series present some difficulties, namely where the analysis is based on some stochastic models. These models must reflect the integer peculiarity of the observed series. Many attempts have been made to define some models which can be used to describe integer-valued time series. Most of the proposed models are based on the thinning operator and they have the same properties as the real-valued models well-known in the literature. The aim of this thesis is to study the integer-valued autoregressive models. We introduce a new class of models based on the rounding operator. Compared to the existent models, the new class has several advantages : simple innovation structure, autoregressive coefficients with arbitrary signs, possible negative values for time series and for the autocorrelation function. We study the stationarity of the models and the strong consistency of the least squares estimator proposed to estimate the parameters. We analyze some well-known time series with the introduced models
Style APA, Harvard, Vancouver, ISO itp.
4

Kachour, Maher. "Une nouvelle classe de modèles auto-régressifs à valeurs entières". Phd thesis, Université Rennes 1, 2009. http://tel.archives-ouvertes.fr/tel-00442146.

Pełny tekst źródła
Streszczenie:
Dans certaines situations il devient nécessaire de traiter les séries chronologiques à valeurs entières. Au premier regard, l'analyse de telle série peut présenter quelques difficultés, notamment si l'analyse est basée sur quelques modèles stochastiques. Ces modèles doivent refléter la particularité entière de la série observée. De nombreuses tentatives ont été faites pour définir des modèles qui peuvent être utilisés pour décrire les séries chronologiques à valeurs entières. La plupart des modèles proposés sont basés sur l'opérateur d'amincissement et possèdent les mêmes propriétés que les modèles à valeurs réelles bien-connus dans la littérature. L'objectif de cette thèse est d'étudier les modèles auto-régressifs à valeurs entières. Nous introduisons une nouvelle classe de modèles basés sur l'opérateur d'arrondi. Par rapport aux modèles existants, la nouvelle classe a plusieurs avantages: structure d'innovation simple, coefficients de régression avec des signes arbitraires, valeurs négatives possibles pour la série chronologiques et pour la fonction d'auto-corrélation. Nous étudions la stationnarité des modèles et la consistance forte de l'estimateur des moindres carrés proposé pour estimer les paramètres. Nous analysons quelques séries chronologiques à valeurs entières bien-connues avec les modèles introduits.
Style APA, Harvard, Vancouver, ISO itp.
5

Trouillon, Théo. "Modèles d'embeddings à valeurs complexes pour les graphes de connaissances". Thesis, Université Grenoble Alpes (ComUE), 2017. http://www.theses.fr/2017GREAM048/document.

Pełny tekst źródła
Streszczenie:
L'explosion de données relationnelles largement disponiblessous la forme de graphes de connaissances a permisle développement de multiples applications, dont les agents personnels automatiques,les systèmes de recommandation et l'amélioration desrésultats de recherche en ligne.La grande taille et l'incomplétude de ces bases de donnéesnécessite le développement de méthodes de complétionautomatiques pour rendre ces applications viables.La complétion de graphes de connaissances, aussi appeléeprédiction de liens, se doit de comprendre automatiquementla structure des larges graphes de connaissances (graphes dirigéslabellisés) pour prédire les entrées manquantes (les arêtes labellisées).Une approche gagnant en popularité consiste à représenter ungraphe de connaissances comme un tenseur d'ordre 3, etd'utiliser des méthodes de décomposition de tenseur pourprédire leurs entrées manquantes.Les modèles de factorisation existants proposent différentscompromis entre leur expressivité, et leur complexité en temps et en espace.Nous proposons un nouveau modèle appelé ComplEx, pour"Complex Embeddings", pour réconcilier expressivité etcomplexité par l'utilisation d'une factorisation en nombre complexes,dont nous explorons le lien avec la diagonalisation unitaire.Nous corroborons notre approche théoriquement en montrantque tous les graphes de connaissances possiblespeuvent être exactement décomposés par le modèle proposé.Notre approche, basées sur des embeddings complexesreste simple, car n'impliquant qu'un produit trilinéaire complexe,là où d'autres méthodes recourent à des fonctions de compositionde plus en plus compliquées pour accroître leur expressivité.Le modèle proposé ayant une complexité linéaire en tempset en espace est passable à l'échelle, tout endépassant les approches existantes sur les jeux de données de référencepour la prédiction de liens.Nous démontrons aussi la capacité de ComplEx àapprendre des représentations vectorielles utiles pour d'autres tâches,en enrichissant des embeddings de mots, qui améliorentles prédictions sur le problème de traitement automatiquedu langage d'implication entre paires de phrases.Dans la dernière partie de cette thèse, nous explorons lescapacités de modèles de factorisation à apprendre lesstructures relationnelles à partir d'observations.De part leur nature vectorielle,il est non seulement difficile d'interpréter pourquoicette classe de modèles fonctionne aussi bien,mais aussi où ils échouent et comment ils peuventêtre améliorés. Nous conduisons une étude expérimentalesur les modèles de l'état de l'art, non pas simplementpour les comparer, mais pour comprendre leur capacitésd'induction. Pour évaluer les forces et faiblessesde chaque modèle, nous créons d'abord des tâches simplesreprésentant des propriétés atomiques despropriétés des relations des graphes de connaissances ;puis des tâches représentant des inférences multi-relationnellescommunes au travers de généalogies synthétisées.À partir de ces résultatsexpérimentaux, nous proposons de nouvelles directionsde recherches pour améliorer les modèles existants,y compris ComplEx
The explosion of widely available relational datain the form of knowledge graphsenabled many applications, including automated personalagents, recommender systems and enhanced web search results.The very large size and notorious incompleteness of these data basescalls for automatic knowledge graph completion methods to make these applicationsviable. Knowledge graph completion, also known as link-prediction,deals with automatically understandingthe structure of large knowledge graphs---labeled directed graphs---topredict missing entries---labeled edges. An increasinglypopular approach consists in representing knowledge graphs as third-order tensors,and using tensor factorization methods to predict their missing entries.State-of-the-art factorization models propose different trade-offs between modelingexpressiveness, and time and space complexity. We introduce a newmodel, ComplEx---for Complex Embeddings---to reconcile both expressivenessand complexity through the use of complex-valued factorization, and exploreits link with unitary diagonalization.We corroborate our approach theoretically and show that all possibleknowledge graphs can be exactly decomposed by the proposed model.Our approach based on complex embeddings is arguably simple,as it only involves a complex-valued trilinear product,whereas other methods resort to more and more complicated compositionfunctions to increase their expressiveness. The proposed ComplEx model isscalable to large data sets as it remains linear in both space and time, whileconsistently outperforming alternative approaches on standardlink-prediction benchmarks. We also demonstrateits ability to learn useful vectorial representations for other tasks,by enhancing word embeddings that improve performanceson the natural language problem of entailment recognitionbetween pair of sentences.In the last part of this thesis, we explore factorization models abilityto learn relational patterns from observed data.By their vectorial nature, it is not only hard to interpretwhy this class of models works so well,but also to understand where they fail andhow they might be improved. We conduct an experimentalsurvey of state-of-the-art models, not towardsa purely comparative end, but as a means to get insightabout their inductive abilities.To assess the strengths and weaknesses of each model, we create simple tasksthat exhibit first, atomic properties of knowledge graph relations,and then, common inter-relational inference through synthetic genealogies.Based on these experimental results, we propose new researchdirections to improve on existing models, including ComplEx
Style APA, Harvard, Vancouver, ISO itp.
6

Molay, Eric. "Modélisation empirique de la rentabilité : le modèle à trois facteurs, une alternative au modèle de marché ?" Aix-Marseille 3, 2001. http://www.theses.fr/2001AIX32064.

Pełny tekst źródła
Streszczenie:
L'utilisation de plus en plus fréquente du modèle de Fama et French (1993) dans la littérature académique confirme l'intérêt des chercheurs pour ce modèle empirique. Cette recherche contribue à la validation empirique de modèles d'évaluation des actions sur le marché français et enrichit la connaissance du comportement des investisseurs français. Par ailleurs, le débat au sujet du modèle à trois facteurs n'est pas clos. La confirmation de son pouvoir descriptif de la rentabilité des titres sur un marché autre que celui des Etats-Unis répond partiellement aux critiques énoncées concernant la fiabilité des tests empiriques sur un seul échantillon. L'étude de la rentabilité en coupe instantanée apporte un éclairage nouveau sur le relation transversale entre la rentabilité espérée des titres espérés dont le coefficient bêta. L'examen du caractère risqué des deux variables fondamen tales SMB et HML permet de vérifier l'interprétation de Fama et French (1993). La compréhension du modèle à 3 facteurs comme une formulation conditionnelle du modèle de marché fournit une piste de réflexion pour de futures recherches
The more and more widely use of the Fama and French three-factor model (1993) in academic literature confirms researcher's interest in this empirical model. This research contributes to the empirical validation of pricing models on the French stock market and a better understanding of the French investors'behaviour. Besides, the debate concerning about the three-factor model is still open. By confirming its sound descriptive ability in assessing stocks returns on a market other than the American one, this study provides partial answer to the critical views on the reliability of empirical tests on a single sample. The cross-sectional study renews the view on the cross-sectional relation between the expected returns and various factors including coefficient beta. .
Style APA, Harvard, Vancouver, ISO itp.
7

Laflamme, Josée. "Femmes et aire domestique, un mode de vie, modèles, valeurs et comportements". Thesis, National Library of Canada = Bibliothèque nationale du Canada, 1998. http://www.collectionscanada.ca/obj/s4/f2/dsk2/ftp04/mq26225.pdf.

Pełny tekst źródła
Style APA, Harvard, Vancouver, ISO itp.
8

Laflamme, Josée. "Femmes et aire domestique, un mode de vie : modèles, valeurs et comportements". Master's thesis, Université Laval, 1997. http://hdl.handle.net/20.500.11794/28446.

Pełny tekst źródła
Style APA, Harvard, Vancouver, ISO itp.
9

Rybalko, Volodymyr. "Effets de mémoire dans quelques modèles de milieux fortement hétérogènes". Paris 7, 2003. http://www.theses.fr/2003PA077109.

Pełny tekst źródła
Style APA, Harvard, Vancouver, ISO itp.
10

Benouamer, Mohand Ourabah. "Opérations booléennes sur les polyèdres représentés par leurs frontières et imprécisions numériques". Phd thesis, Ecole Nationale Supérieure des Mines de Saint-Etienne, 1993. http://tel.archives-ouvertes.fr/tel-00834640.

Pełny tekst źródła
Streszczenie:
Les progrès enregistrés en modélisation solide ont beaucoup contribué à l'essor des diverses applications de la CAO/FAO, de la robotique et de la synthèse d'images. Les systèmes de modélisation solide contemporains combinent souvent la représentation par arbre de construction et la représentation par frontière afin de mieux répondre aux besoins des applications. Dans cette thèse nous proposons une nouvelle méthode de calcul de la frontière d'un objet polyédrique décrit par un arbre de construction, qui traite uniformément les nombreux cas particuliers et qui résout le problème crucial des imprécisions numériques inhérentes à l'arithmétique flottante. Une implantation utilisant une arithmétique rationnelle optimisée est présentée ainsi que des résultats de tests.
Style APA, Harvard, Vancouver, ISO itp.
11

Mathieu, Claire. "Comparaison de modèles combinatoires et probabilistes : deux exemples en analyse d'algorithmes". Paris 11, 1988. http://www.theses.fr/1988PA112042.

Pełny tekst źródła
Streszczenie:
Dans la première partie de cette thèse, la vérification de propriétés booléennes monotones de variables booléennes dans un environnement avec erreurs est étudiée. La deuxième partie concerne surtout le calcul de la taille maximale moyenne de structures de données dynamiques
Style APA, Harvard, Vancouver, ISO itp.
12

Hechme, Grace. "Analyse spectrale théorique et numérique de quelques modèles linéarisés de l'hydrodynamique". Brest, 2005. http://www.theses.fr/2005BRES2025.

Pełny tekst źródła
Streszczenie:
Cette thèse est une contribution à l'analyse de la stabilité, autour d'un point stationnaire, de quelques modèles issus de l'hydrodynamique. Suite à une discrétisation spatiale, l'analyse repose sur le calcul des valeurs propres de plus grande partie réelle et les vecteurs propres et sous-espaces invariants correspondants d'un problème généraliste. Le premier chapitre est consacré aux étapes nécessaires pour aboutir au problème de valeurs propres partant des modèles physiques. Le deuxième chapitre porte sur le calcul spectral. Une étude théorique est effectuée afin de déterminer les propriétés algébriques du spectre du problème. Des variantes en arithmétique réelle des méthodes de Davidson et de Jacobi-davidson généralisées pour calculer les valeurs propres les plus à droite du spectre ainsi que les vecteurs propres ou sous-espaces invariants associés sont proposées. A chaque itération de ces méthodes, des systèmes linéaires, dits "systèmes de correction", sont résolus par des méthodes itératives. Une analyse théorique de la convergence des variantes de la méthode de Jacobi-Davidson est effectuée. Cette analyse montre la convergence quadratique de la méthode quand les systèmes de correction sont résolus exactement. Le dernier chapitre concerne la réduction de modèles pour des systèmes de contrôle linéaires résultants de la discrétisation de problèmes d'hydrodynamique. Des techniques de réduction basées sur les projections spectrales associées aux sous-espaces invariants obtenus au chapitre précédent sont développées. Ces techniques permettent de conserver la stabilité et la régularité des systèmes de contrôle initiaux
This thesis is a contribution to the stability analysis of some hydrodynamic models around a steady state. After spatial discretisation, the analysis relies on the computation of the eigenvalues with largest real parts, the corresponding eigenvectors, and the reducing subspaces of a generalized eigenproblem. The first chapter gives the required steps to obtain the eigenproblem starting from the physical models. The second chapter focuses on the spectral computations. A theoretical analysis is given first to determine the algebraic properties of the spectrum. Variants of the generalized Davidson and Jacobi-Davidson methods to compute the rightmost eigenvalues and corresponding eigenvectors or reducing subspaces in real arithmetics are then proposed. At each iteration of the methods, linear systems called , "the correction systems", are solved with iterative methods. A convergence analysis for the Jacobi-Davidson variants is performed. This analysis shows quadratic convergence of the method when the correction systems are solved exactly. The last chapter concerns model reduction for linear control systems resulting from discretized hydrodynamic models. Reduction techniques based on the spectral projectors onto the reducing susbpaces obtained in the previous chapter are developed. These techniques preserve the stability and regularity of the initial control systems
Style APA, Harvard, Vancouver, ISO itp.
13

Gauthier, Claire. "Trois essais empiriques sur le risque de crédit : Modèles intensité, modèle multifactoriel, valeurs extrêmes". Nice, 2002. http://www.theses.fr/2002NICE0061.

Pełny tekst źródła
Streszczenie:
Le risque de crédit se matérialise par le possible défaut d'une contrepartie, et par l'évolution du spread consécutive à une détérioration perçue par le marché de la qualité de crédit de l'émission. Dans le premier chapitre de cette thèse, un modèle de type " intensité ", c'est-à-dire considérant la faillite comme un événement imprévisible a été mis en œuvre. Le deuxième chapitre présente un modèle multifactoriel des spreads de crédit, basé sur une large gamme de variables explicatives, et utilisant l'économétrie des données de panel pour reconstituer des spreads théoriques fournissant ainsi un outil d'analyse et de prévision des spreads de crédit. Le troisième chapitre met en évidence la non normalité de la distribution des rendements continus associés aux spreads de crédit, et caractérise la distribution de ces derniers à l'aide des distributions des valeurs extrêmes généralisées
Credit risk materializes by a firm default, and by the spread movements following a decrease of an issuer's credit quality. In the first chapter of this thesis, an intensity model considering default as an unpredictable event is implemented. The second chapter presents a multifactor models for credit spreads, based on a wide range of explanatory variables, and using panel data econometry to build theoretical credit spreads. This model is a good tool to analyse and forecast credit spreads. The third chapter underlines the non normality of credit spreads distributions, and characterize their distribution using extreme value theory
Style APA, Harvard, Vancouver, ISO itp.
14

Ben, Ammou Saloua. "Comportement des valeurs propres en analyse des correspondances multiples sous certaines hypothèses de modèles". Paris 9, 1996. https://portail.bu.dauphine.fr/fileviewer/index.php?doc=1996PA090044.

Pełny tekst źródła
Streszczenie:
L'analyse des correspondances multiples et le modèle log-linéaire sont deux techniques l'analyse des données multidimensionnelles ayant des problématiques et des champs d'application différents. Le modèle log-linéaire s'applique avec profit lorsque l'on dispose de peu de variables. L'analyse des correspondances multiples est plus efficace pour les gros tableaux. Cette efficacité est contrebalancée par le fait que l'ACM n'explicite que les liaisons entre les variables prises deux à deux et ne tient pas compte des liaisons d'ordre supérieur contrairement au modèle log-linéaire. Ce sont en fait des techniques complémentaires. Le but de cette thèse est d'étudier le comportement des valeurs propres de l'analyse des correspondances multiples lorsque les données suivent un modèle log-linéaire connu, puis à induire ce modèle à partir d'utilisations successives d'ACM. La nouveauté dans cette approche réside dans l'utilisation de la forme du spectre des valeurs propres de l'ACM dans la détermination du modèle log-linéaire. Après avoir fait un rappel sur l'ACM, le modèle log-linéaire et l'étude des valeurs propres dans le cas de l'AFC, nous étudions le comportement des valeurs propres en ACM sous certaines hypothèses de modèles. Nous présentons à la fin de ce travail un algorithme de construction progressive de modèle log-linéaire ou la procédure d'ajustement du modèle est basée sur le comportement des valeurs propres de l'ACM. L'algorithme est valide sur trois jeux de données déjà utilises dans la littérature
Multiple Correspondence Analysis and Log-Linear modelling are two techniques of multi-way contingency table analysis having different problematics and fields of application. Log-Linear models are profitably applied to a little number of variables. Multiple Correspondence Analysis is usefùl with large tables. This efficiency is balanced by the fact that MCA explicits relations between only two variables, and isn’t able to explicit relation between more than two, as can be done by Log-Linear modelling. The two approaches are complementary. The aim of this thesis is to study the behaviour of eigenvalues in Multiple Correspondence Analysis when data fit a known Log-Linear model, then to induct this model by successive utilisation of MCA. The innovation in this approach is the use of eigenvalues diagram in the détermination of the Log-Linear model. Affer giving a reminder of MCA, Log-Linear modelling, and study of behaviour of eigenvalues in Correspondence Analysis, we présent the distribution of eigenvalues in MCA under some hypothesis modelling. At the end of this work we propose an algorithm fitting progressively the Log-Linear model where the fitting test is based on eigenvalues diagram. The algorithm is validated on three sets of data used in literature
Style APA, Harvard, Vancouver, ISO itp.
15

Loubeau, Vincent. "Sur un modèle de combustion solide-solide à énergie d'activation finie". Bordeaux 1, 1992. http://www.theses.fr/1992BOR10596.

Pełny tekst źródła
Streszczenie:
Si les modèles de combustion en phase gazeuse ont fait l'objet de nombreuses études, la combustion solide-solide reste largement un domaine nouveau, surtout dans le cas des énergies d'activation finies. On considère ici un système parabolique-hyperbolique avec un terme de réaction correspondant à une cinétique d'Arrhenius. On montre l'existence d'une solution onde stationnaire, et la convergence vers un modèle asymptotique. La question de la stabilité est formulée mathématiquement et conduit à un problème d'évolution abstrait formel. Les valeurs propres de l'opérateur linéarise sont étudiées numériquement
Style APA, Harvard, Vancouver, ISO itp.
16

Ben, Othman Leila. "Conception et validation d'une méthode de complétion des valeurs manquantes fondée sur leurs modèles d'apparition". Phd thesis, Université de Caen, 2011. http://tel.archives-ouvertes.fr/tel-01017941.

Pełny tekst źródła
Streszczenie:
L'extraction de connaissances à partir de données incomplètes constitue un axe de recherche en plein essor. Dans cette thèse, nous y contribuons par la proposition d'une méthode de complétion des valeurs manquantes. Nous commençons par aborder cette problématique par la définition de modèles d'apparition des valeurs manquantes. Nous en proposons une nouvelle typologie en fonction des données connues et nous les caractérisons de façon non redondante grâce à la base d'implications propres. Un algorithme de calcul de cette base de règles, formalisé à partir de la théorie des hypergraphes, est également proposé dans cette thèse. Ensuite, nous exploitons les informations fournies lors de l'étape de caractérisation afin de proposer une méthode de complétion contextualisée, qui complète les valeurs manquantes selon le type aléatoire/non-aléatoire et selon le contexte. La complétion des valeurs manquantes non aléatoires est effectuée par des valeurs spéciales, renfermant intrinsèquement les origines des valeurs manquantes et déterminées grâce à des schémas de caractérisation. Finalement, nous nous intéressons aux techniques d'évaluation des méthodes de complétion et nous proposons une nouvelle technique fondée sur la stabilité d'un clustering entre les données de référence et les données complétées.
Style APA, Harvard, Vancouver, ISO itp.
17

Ben, Othman Amroussi Leila. "Conception et validation d’une méthode de complétion des valeurs manquantes fondée sur leurs modèles d’apparition". Caen, 2011. http://www.theses.fr/2011CAEN2067.

Pełny tekst źródła
Streszczenie:
L'extraction de connaissances à partir de données incomplètes constitue un axe de recherche en plein essor. Dans cette thèse, nous y contribuons par la proposition d'une méthode de complétion des valeurs manquantes. Nous commençons par aborder cette problématique par la définition de modèles d'apparition des valeurs manquantes. Nous en proposons une nouvelle typologie en fonction des données connues et nous les caractérisons de façon non redondante grâce à la base d'implications propres. Un algorithme de calcul de cette base de règles, formalisé à partir de la théorie des hypergraphes, est également proposé dans cette thèse. Ensuite, nous exploitons les informations fournies lors de l'étape de caractérisation afin de proposer une méthode de complétion contextualisée, qui complète les valeurs manquantes selon le type aléatoire/non-aléatoire et selon le contexte. La complétion des valeurs manquantes non aléatoires est effectuée par des valeurs spéciales, renfermant intrinsèquement les origines des valeurs manquantes et déterminées grâce à des schémas de caractérisation. Finalement, nous nous intéressons aux techniques d'évaluation des méthodes de complétion et nous proposons une nouvelle technique fondée sur la stabilité d'un clustering entre les données de référence et les données complétées
Knowledge Discovery from incomplete databases is a thriving research area. In this thesis, the main focus is put on the proposal of a missing values completion method. We start approaching this issue by defining the appearing models of the missing values. We thus propose a new typology according to the given data and we characterize these missing values in a non-redundant manner defined by means of the basis of proper implications. An algorithm computing this basis of rules, heavily relying on the hypergraph theory battery of results, is also introduced in this thesis. We then explore the information provided during the characterization stage in order to propose a new contextual completion method. The latter completes the missing values with respect to their type as well as to their appearance context. The non-random missing values are completed with special values intrinsically containing the explanation defined by the characterization schemes. Finally, we investigate the evaluation techniques of the missing values completion methods and we introduce a new technique based on the stability of a clustering, when applied on reference data and completed ones
Style APA, Harvard, Vancouver, ISO itp.
18

Thuillier, Kerian. "Méthodes de satisfiabilité hybrides pour l'inférence de régulations booléennes contrôlant des réseaux métaboliques". Electronic Thesis or Diss., Université de Rennes (2023-....), 2024. http://www.theses.fr/2024URENS032.

Pełny tekst źródła
Streszczenie:
Les systèmes biologiques sont des systèmes multi-échelles complexes composés de nombreux mécanismes biologiques interconnectés. Parmi ces échelles, il y a le métabolisme, qui transforme les nutriments en énergie et en biomasse, et le système de régulation, qui agit comme un contrôleur de l’activité métabolique. Modéliser le couplage du métabolisme et de la régulation est difficile et nécessite d'intégrer les formalismes algébriques différentiels modélisant le métabolisme avec les formalismes discrets modélisant la régulation. Bien qu'il existe des formalismes de simulation de la dynamique hybride de ce couplage, il n'existe aucune méthode pour synthétiser les contrôleurs régulant l'activité métabolique, i.e. les règles de régulation. Cette thèse présente trois formulations du problème de synthèse comme des problèmes d'optimisation combinatoire sous contraintes, logiques et hybrides (logiques et linéaires), quantifiées. Chaque formulation fait l'objet d'une approche de résolution dédiée. La première repose sur des méthodes de satisfiabilité, tandis que les deux autres utilisent des méthodes de résolution hybrides couplant des contraintes logiques et linéaires. En particulier, la thèse présente une méthode générique pour résoudre les problèmes d'optimisation combinatoire sous contraintes linéaires quantifiées. Ces travaux ont conduit au développement de deux logiciels, MERRIN et MerrinASP, qui étendent le paradigme de programmation par ensembles réponses (ASP) avec des contraintes linéaires quantifiées. Cette thèse met également à disposition des jeux de données synthétiques simulant différents types de données omiques, ainsi que le protocole utilisé pour les générer
Biological systems are complex multi-scale systems composed of many interconnected biological mechanisms. These scales include the metabolism, which transforms nutrients into energy and biomass, and the regulatory system, which acts as a controller of metabolic activity. Modeling the coupling of metabolism and regulation is difficult and requires integrating the differential-algebraic formalisms of metabolism with the discrete formalisms of regulation. Although formalisms for simulating the hybrid dynamics of this coupling exist, no method allows for the synthesis of the controllers that regulate metabolic activity, that is, the regulatory rules. This thesis presents three formulations of the synthesis problem as combinatorial optimization problems under logical and hybrid (logical and linear) quantified constraints. A dedicated solving method is given for each formulation. The first formulation is solved using satisfiability methods, while the other two rely on hybrid solving methods that integrate logical constraints and linear arithmetic. In particular, the thesis presents a generic framework for solving combinatorial optimization problems under quantified linear constraints. These formalizations have led to the development of two tools, MERRIN and MerrinASP, which extend Answer Set Programming (ASP) with quantified linear constraints. This thesis also provides synthetic datasets that simulate different types of omics data, as well as the protocol used to generate them
Style APA, Harvard, Vancouver, ISO itp.
19

Aboura, Sofiane. "L' étude du comportement de la volatilité implicite". Aix-Marseille 3, 2003. http://www.theses.fr/2003AIX32037.

Pełny tekst źródła
Streszczenie:
Cette thèse porte sur l'étude du comportement de la volatilité implicite. La première partie présente et simule les principaux modèles de volatilité implicite et d'options. L'objet est de mettre en relief le rôle des paramètres caractérisant le processus de volatilité sur la d"formation du smile. La seconde partie est dédiée à l'étude du pouvoir prédictif et à la transmission de volatilité implicite, dans un cadre international, des indices de volatilité des marchés français, allemands et américains (VX1, VDAX et VIX). La finalité étant de mesurer les interactions entre volatilités et de quantifier leur processus. La troisième partie est consacrée à l'évaluation d'options et à la dynamique du smile de volatilité. On étudie des modèles dérivés de Black-Scholes (1973), des modèles à volatilité stochastique et des modèles NGARCH. Le but est de mettre en évidence les performances et les limites des modèles, ainsi que leur smile
This thesis deals with the study of the implied volatility behavior. The first part presents and simulates the main implied volatility models and option pricing models. The goal is to highlight the role of the parameters characterizing the volatility process on the smile deformation. The second part is dedicated to the study of the predictive power and to the transmission of implied volatility, within an international framework, between the French, German and US markets (VX1, VDAX and VIX). The objective is to measure the interactions between volatilities and to quantify their process. The third part is devoted to option valuation with a discussion on the empirical dynamic of the smile. The analysis concerns models derived from Black-Scholes (1973), models including information costs, stochastic volatility models and NGARCH models. The purpose is to underline the performance and limit of these models along with their smile
Style APA, Harvard, Vancouver, ISO itp.
20

Veber, Philippe. "Modélisation grande échelle de réseaux biologiques : vérification par contraintes booléennes de la cohérence des données". Phd thesis, Université Rennes 1, 2007. http://tel.archives-ouvertes.fr/tel-00185895.

Pełny tekst źródła
Streszczenie:
Les techniques de biologie moléculaire dites haut-débit permettent de mesurer un grand nombre de variables simultanément. Elles sont aujourd'hui couramment utilisées et produisent des masses importantes de données. Leur exploitation est compliquée par le bruit généralement observé dans les mesures, et ce d'autant plus que ces dernières sont en général trop onéreuses pour être suffisamment reproduites. La question abordée dans cette thèse porte sur l'intégration et l'exploitation des données haut-débit : chaque source de données mesurant un aspect du fonctionnement cellulaire, comment les combiner dans un modèle et en tirer des conclusions pertinentes sur le plan biologique ? Nous introduisons un critère de consistance entre un modèle graphique des régulations cellulaires et des données de déplacement d'équilibre. Nous montrons ensuite comment utiliser ce critère comme guide pour formuler des prédictions ou proposer des corrections en cas d'incompatibilité. Ces différentes tâches impliquent la résolution de contraintes à variables sur domaines finis, pour lesquelles nous proposons deux approches complémentaires. La première est basée sur la notion de diagramme de décision, qui est une structure de données utilisée pour la vérification des circuits ; la deuxième fait appel à des techniques récentes de programmation logique. L'utilisation de ces techniques est illustrée avec des données réelles sur la bactérie "E. coli" et sur la levure. Les réseaux étudiés comportent jusqu'à plusieurs milliers de gènes et de régulations. Nous montrons enfin, sur ces données, comment notre critère de consistance nous permet d'arriver à des prédictions robustes, ainsi que des corrections pertinentes du modèle étudié.
Style APA, Harvard, Vancouver, ISO itp.
21

Barrault, Valérie. "Les protéines kinases C : mise au point du dosage et valeurs basales dans divers modèles expérimentaux". Paris 5, 1992. http://www.theses.fr/1992PA05P083.

Pełny tekst źródła
Style APA, Harvard, Vancouver, ISO itp.
22

Jawadi, Fredj. "Ajustements non linéaires des cours boursiers dans les pays du G7 : essai de modélisation". Paris 10, 2006. http://www.theses.fr/2006PA100041.

Pełny tekst źródła
Streszczenie:
Cette thèse est centrée sur la spécification et la modélisation de la dynamique d'ajustement des cours boursiers vers les fondamentaux dans un cadre non linéaire. Parmi les nombreux processus non linéaires, nous mobilisons la classe des modèles à changement de régime avec transition lisse. Le chapitre 1 introduit les insuffisances économiques et économétriques de la modélisation linéaire, justifiant ainsi l'utilisation des modèles à changement de régime pour étudier les dynamiques boursières. Ces justifications tiennent essentiellement à la présence de coûts de transaction hétérogènes et d'anticipations hétérogènes. Le chapitre 2 présente la méthodologie des modèles à changement de régime avec transition lisse univariés (Smooth Transition Autorégressive Models, STAR) et multivariés (Smooth Transition Error Correction Models, STECM) et décrit leurs propriétés statistiques ainsi que les étapes permettant de les spécifier, de les estimer et de les valider. Le chapitre 3 fournit un panorama des principales études empiriques de la littérature ayant utilisé les processus à changement de régimes pour explorer les dynamiques des séries boursières. Le chapitre 4 confronte les modèles d'ajustement non linéaire ainsi retenus aux données boursières des pays du G7 et montre que l'ajustement des cours vers leurs fondamentaux est caractérisée par un retour à la moyenne avec une vitesse de convergence variant en fonction de l'ampleur du déséquilibre
We center the study in this thesis on the specification and the modelling of stock indexes adjustment dynamics towards their fundamentals in a non-linear framework and we mobilize, among the many non-linear processes, the class of the Smooth Transition Autoregressive Models. Chapter 1 introduces the economic and econometric insufficiencies of linear modelling, in order to justify the use of the Smooth Transition Autoregressive Models to study the stock market dynamics. These justifications are due primarily to the presence of heterogeneous transaction costs and heterogeneous anticipations. Chapter 2 presents the STAR and STECM methodology and describes their statistical properties and their stages of specification, estimate and validation. Chapter 3 provides a panorama of the principal empirical studies that used the STAR and STEC models to explore sotck market dynamics. Chapter 4 confronts the selected non-linear adjustment models to the G7 stock market data and shows that their stock indexes adjustment towards fundamentals are characterized by a return to the mean with a speed of convergence varying according to the desequilibrium extent
Style APA, Harvard, Vancouver, ISO itp.
23

Stojanovic, Alexandre. "Sur la distribution limite des valeurs propres dans des matrices aléatoires". Paris 7, 2003. http://www.theses.fr/2003PA077184.

Pełny tekst źródła
Style APA, Harvard, Vancouver, ISO itp.
24

Fernandez, Miguel Angel. "Modèles simplifiés d'interaction fluide-structure". Phd thesis, Université Paris Dauphine - Paris IX, 2001. http://tel.archives-ouvertes.fr/tel-00001954.

Pełny tekst źródła
Streszczenie:
Dans cette thèse nous nous sommes intéressés à la stabilité linéaire d'un système mécanique en interaction fluide-structure. Nous avons mis au point une méthode de linéarisation permettant de justifier mathématiquement les conditions d'interface de transpiration, ainsi que de définir un problème linéaire d'interaction fluide-structure avec ce type de conditions. Cette technique a été ensuite appliquée à la démarche du ``Principe de linéarisation''. L'analyse de stabilité linéaire se réduit alors à l'étude des valeurs propres d'un problème spectral couplé. Ces valeurs propres sont définies à partir des valeurs caractéristiques d'un opérateur compact spécifique. Nous proposons un schéma de discrétisation du problème spectral, conduisant à un problème généralisé aux valeurs propres. La calcul numérique des valeurs propres de plus petite partie réelle est effectué par un algorithme combinant une méthode IRAM (Implicit Restarted Arnoldi Method) et la transformation de Cayley généralisée. Des expériences numériques mettent en évidence la robustesse de l'approche proposée, linéarisation-transpiration, pour la détection d'instabilités de systèmes en interaction fluide-structure.
Style APA, Harvard, Vancouver, ISO itp.
25

Depire, Alexandre. "Modélisation Markovienne – Modèles de régression de copules et valeurs extrêmes – Application aux systèmes d’aide à la conduite". Reims, 2008. http://theses.univ-reims.fr/exl-doc/GED00000749.pdf.

Pełny tekst źródła
Streszczenie:
Cette thèse s'organise en deux grandes parties. La première partie porte sur le système d'aide à la conduite ACC. Nous étudions les stratégies de conduite et confirmons une hypothèse de F. Saad dans le premier chapitre. Le second chapitre aborde les automates cellulaires. Le troisième chapitre propose la validation d'une hypothèse dans le domaine de la psychologie de la conduite par l'utilisation de la modélisation markovienne. Le dernier chapitre porte sur la modélisation markovienne avec exogènes. Nous comparons avec une modélisation classique. Un cadre théorique est présente. L'étude d'outils pour l'évaluation d'un système d'aide à la conduite par le biais d'une comparaison avec/sans et cela sur des données réelles non contrôlées est central. Ceci nous a amené à considérer la notion de scène pouvant se définir comme la modification de la dépendance entre plusieurs indicateurs. L’objet central dans la dépendance est la copule, cœur de la seconde partie. Le premier chapitre est un état de l'art, évoque les mesures de dépendance et la fonction de linkage. Le second chapitre aborde une mesure de dépendance multivariée. Nous démontrons une formule de décomposition de l'information mutuelle. Le troisième expose une extension du modèle de cox au cas bivarié s'appuyant sur les copules de valeurs extrêmes. Des résultats d'approximation et de convergence sont prouvés. Pour conclure, une application est présentée sur les données du système lavia (limiteur de vitesse s'adaptant à la vitesse autorisée). Le quatrième chapitre porte l'estimation de la fonction de dépendance d'une copule bivariée. On démontre la convergence uniforme ainsi que la loi asymptotique de notre estimateur
The thesis gets organized in two major parties. The first part turns on the intelligent transportation system (autonomous cruise control). In the first chapter we study strategies of drivers and confirm a hypothesis of F. Saad. The second chapter tackles the cellular automaton. The third chapter suggests validation of an assumption in the field of the driver psychology by the use of the markovian models. The last chapter deals with the input-output hidden markov models. A theoretical framework is presented. The main purpose is the study of tools for the evaluation of such systems through data with / without the system and real data, not controlled. The important notion is the concept of scene, as defined the changes in the dependence between several indicators. The central object in the dependence is the copula, the heart of the second part. The first chapter is a state of the art, refer to the measures of dependence and function of linkage. The second chapter tackles a measure of a multivariate dependence. We demonstrate a formula about the mutual information. In the third chapter, an extension of the cox model in bivariate case is presented, based on extreme value copulas. Some approximation results and the convergence are proved. We give an application on real data from lavia system (speed limiter). The fourth chapter is about the estimating of the dependence function in the bivariate case. We prove the uniform convergence and give the asymptotic law of our estimator
Style APA, Harvard, Vancouver, ISO itp.
26

Collet, Jérôme. "Les Processus Longue Mémoire : Prévisions, Estimations et Valeurs Extrêmes". Reims, 2003. http://www.theses.fr/2003REIMS010.

Pełny tekst źródła
Streszczenie:
Ce travail concerne l'étude de processus Longue mémoire (LM dans la suite). Après avoir rappelé le concept de LM, nous présentons, Chapitre 1, les processus LM du type Gegenbauer. Des propriétés sont rappelées, ainsi que des méthodes d'estimations et de prévisions de séries au moyen de ces processus. Chapitre 2, nous nous intéressons aux processus LM non gaussiens. Une méthode permettant de construire ces processus est développée et utilisée ensuite en vue d'estimations et de prévisions de séries temporelles. Chapitre 3, nous étudions différents problèmes intervenant lors de la modélisation de séries au moyen de processus de Gegenbauer, comme la sous-modélisation. Chapitre 4, nous nous intéressons aux comportements extrêmes de processus en appliquant les résultats du Chapitre 2. Après avoir énoncé quelque propriétés concernant le comportement extrême de quelques processus indépendants et stationnaires, nous donnons des propriétés de l'indice extrême pour ces processus
This thesis deals with the long memory (LM hereafter) processes. After recalling the concept of LM, we present, in Chapter 1, the LM Gegenbauer process. Some properties of these processes and standard results on forecasting and estimation are recalled. In Chapter 2, we examine the non Gaussian LM processes. A method of construction of these processes is presented and used to make estimations and forecasting of time series. In Chapter 3, we investigate different problems encountered in modelling time series with Gegenbauer processes, such as under-fitting. In Chapter 4, we study the extreme behaviour of processes using the methods developed in Chapter 2. After recalling some properties of extreme behaviour of independent and stationary processes,we give some properties of the extremal index for these series
Style APA, Harvard, Vancouver, ISO itp.
27

Ahmad, Ali. "Contribution à l'économétrie des séries temporelles à valeurs entières". Thesis, Lille 3, 2016. http://www.theses.fr/2016LIL30059/document.

Pełny tekst źródła
Streszczenie:
Dans cette thèse, nous étudions des modèles de moyennes conditionnelles de séries temporelles à valeurs entières. Tout d’abord, nous proposons l’estimateur de quasi maximum de vraisemblance de Poisson (EQMVP) pour les paramètres de la moyenne conditionnelle. Nous montrons que, sous des conditions générales de régularité, cet estimateur est consistant et asymptotiquement normal pour une grande classe de modèles. Étant donné que les paramètres de la moyenne conditionnelle de certains modèles sont positivement contraints, comme par exemple dans les modèles INAR (INteger-valued AutoRegressive) et les modèles INGARCH (INteger-valued Generalized AutoRegressive Conditional Heteroscedastic), nous étudions la distribution asymptotique de l’EQMVP lorsque le paramètre est sur le bord de l’espace des paramètres. En tenant compte de cette dernière situation, nous déduisons deux versions modifiées du test de Wald pour la significativité des paramètres et pour la moyenne conditionnelle constante. Par la suite, nous accordons une attention particulière au problème de validation des modèles des séries temporelles à valeurs entières en proposant un test portmanteau pour l’adéquation de l’ajustement. Nous dérivons la distribution jointe de l’EQMVP et des autocovariances résiduelles empiriques. Puis, nous déduisons la distribution asymptotique des autocovariances résiduelles estimées, et aussi la statistique du test. Enfin, nous proposons l’EQMVP pour estimer équation-par-équation (EpE) les paramètres de la moyenne conditionnelle des séries temporelles multivariées à valeurs entières. Nous présentons les hypothèses de régularité sous lesquelles l’EQMVP-EpE est consistant et asymptotiquement normal, et appliquons les résultats obtenus à plusieurs modèles des séries temporelles multivariées à valeurs entières
The framework of this PhD dissertation is the conditional mean count time seriesmodels. We propose the Poisson quasi-maximum likelihood estimator (PQMLE) for the conditional mean parameters. We show that, under quite general regularityconditions, this estimator is consistent and asymptotically normal for a wide classeof count time series models. Since the conditional mean parameters of some modelsare positively constrained, as, for example, in the integer-valued autoregressive (INAR) and in the integer-valued generalized autoregressive conditional heteroscedasticity (INGARCH), we study the asymptotic distribution of this estimator when the parameter lies at the boundary of the parameter space. We deduce a Waldtype test for the significance of the parameters and another Wald-type test for the constance of the conditional mean. Subsequently, we propose a robust and general goodness-of-fit test for the count time series models. We derive the joint distribution of the PQMLE and of the empirical residual autocovariances. Then, we deduce the asymptotic distribution of the estimated residual autocovariances and also of a portmanteau test. Finally, we propose the PQMLE for estimating, equation-by-equation (EbE), the conditional mean parameters of a multivariate time series of counts. By using slightly different assumptions from those given for PQMLE, we show the consistency and the asymptotic normality of this estimator for a considerable variety of multivariate count time series models
Style APA, Harvard, Vancouver, ISO itp.
28

Bouayad, Abdelali. "Étude comparative de méthodes d'analyse de systèmes à échelles de temps multiples : contribution à l'élaboration d'un processus d'aide à la simplification de modèles". Lille 1, 1990. http://www.theses.fr/1990LIL10058.

Pełny tekst źródła
Streszczenie:
Dans le cadre d'un projet de réalisation d'un système à base de connaissances, d'aide à la simplification de modèles, utilisant des techniques d'intelligence artificielle (IA) associées à un langage de représentation centrée objet, les travaux présentés dans ce mémoire constituent une contribution à la définition de l'expertise au point de vue de la simplification de modèles et du développement des outils de synthèse nécessaires à l'élaboration de la base de connaissances. Ce mémoire comporte, dans la première partie, une synthèse bibliographique des différentes techniques de réduction des systèmes continus linéaires stationnaires modélisés par une matrice de transfert ou une équation d'état. Des critères de choix d'une méthode de simplification sont définis pour mieux guider l'utilisateur dans sa démarche. La deuxième partie, par une analyse numérique et graphique, traite plus particulièrement de l'identification des dynamiques, nécessaire à tout découplage ou réduction. Sans calcul des valeurs propres ni des vecteurs propres, cette identification est réalisée par des méthodes géométriques permettant ainsi un étiquetage des dynamiques du système étudié. L'introduction d'une nouvelle méthode, associée aux cercles de gershgorin, permet par un changement de base diagonal optimal, de mieux localiser les valeurs propres de la matrice d'état du système. La aussi, des critères de choix portant sur le bon ou le mauvais conditionnement d'une matrice sont établis. Lorsqu'ils sont vérifiés, ces critères nous renseignent sur l'utilisation directe des méthodes géométriques de mise en évidence des dynamiques. Dans la troisième partie, nous proposons trois méthodes qui, par une transformation linéaire, permettent la bloc-diagonalisation de la matrice d'état du système, quel que soit son conditionnement, tout en regroupant dans chaque bloc les dynamiques considérées. Cette technique est basée sur le calcul de la signature de matrice et ne nécessite pas non plus la connaissance du spectre de celle-ci.
Style APA, Harvard, Vancouver, ISO itp.
29

Sid-Ali, Ahmed. "Un processus empirique à valeurs mesures pour un système de particules en interaction appliqué aux réseaux complexes". Doctoral thesis, Université Laval, 2019. http://hdl.handle.net/20.500.11794/33730.

Pełny tekst źródła
Streszczenie:
Tableau d’honneur de la Faculté des études supérieures et postdoctorales, 2018-2019
On propose dans cette thèse une modélisation des réseaux sociaux par des processus aléatoires à valeurs mesures. Notre démarche se base sur une approche par espace latent. Cette dernière a été utilisée dans la littérature dans le but de décrire des interactions non-observées ou latentes dans la dynamique des réseaux complexes. On caractérise les individus du réseau par des mesures de Dirac représentant leurs positions dans l’espace latent. On obtient ainsi une caractérisation du réseau en temps continu par un processus de Markov à valeurs mesures écrit comme la somme des mesures de Dirac représentant les individus. On associe au réseau trois événements aléatoires simples décrivant les arrivées et les départs d’individus suivant des horloges exponentielles en associant chaque événement à une mesure aléatoire de Poisson. Cette thèse est composée essentiellement d’un premier chapitre réservé à l’état de l’art de la littérature de la modélisation des réseaux complexes suivi d’un second chapitre introductif aux processus aléatoires à valeurs mesures. Le 3-ème et 4-ème chapitres sont constitués de deux articles co-écrits avec mon directeur de thèse, Khader Khadraoui, et sont soumis pour publication dans des journaux. Le premier article, inclus dans le chapitre 3, se compose essentiellement de la description détaillée du modèle proposé ainsi que d’une procédure de Monte Carlo permettant de générer aléatoirement des réalisations du modèle, suivi d’une analyse des propriétés théoriques du processus aléatoire à valeurs mesures sous-jacent. On explicitera notamment le générateur infinitésimal du processus de Markov qui caractérise le réseau. On s’intéressera également aux propriétés de survie et d’extinction du réseau puis on proposera une analyse asymptotique dans laquelle on démontrera, en utilisant des techniques de renormalisation, la convergence faible du processus vers une mesure déterministe solution d’un système intégro-différentiel. On terminera l’article par une étude numérique démontrant par des simulations les principales propriétés obtenues avec notre modèle. Dans le second article, inclus dans le chapitre 4, on reformule notre modèle du point de vue des graphes géométriques aléatoires. Une introduction aux graphes géométriques aléatoires est d’ailleurs proposée au chapitre 1 de cette thèse. Le but de notre démarche est d’étudier les propriétés de connectivité du réseau. Ces problématiques sont largement étudiées dans la littérature des graphes géométriques aléatoires et représentent un intérêt théorique et pratique considérable. L’idée proposée est de considérer notre modèle comme un graphe géométrique aléatoire où l’espace latent représente l’espace sous-jacent et la distribution sous-jacente est celle donnée par le processus génératif du réseau. À partir de là, la question de la connectivité du graphe se pose naturellement. En particulier, on s’intéressera à la distribution des sommets isolés, i.e. d’avoir des membres sans connexion dans le réseau. Pour cela, on pose l’hypothèse supplémentaire que chaque individu dans le graphe peut être actif ou non actif suivant une loi de Bernoulli. On démontrera alors que pour certaines valeurs du seuil de connectivité, le nombre d’individus isolés suit asymptotiquement une loi de Poisson. Aussi, la question de la détection de communautés (clustering) dans leréseau est traitée en fonction du seuil de connectivité établi. Nous terminons cette thèse par une conclusion dans laquelle on discute de la pertinence des approches proposées ainsi que des perspectives que peut offrir notre démarche. En particulier, on donne des éléments permettant de généraliser notre démarche à une classe plus large de réseaux complexes.La fin du document est consacrée aux références bibliographiques utilisées tout au long de ce travail ainsi qu’à des annexes dans lesquelles le lecteur pourra trouver des rappels utiles.
This thesis concerns the stochastic modelling of complex networks. In particular, weintroduce a new social network model based on a measure-valued stochastic processes. Individuals in the network are characterized by Dirac measures representing their positions in a virtual latent space of affinities. A continuous time network characterizationis obtained by defining an atomic measure-valued Markov process as the sum of some Dirac measures. We endow the network with a basic dynamic describing the random events of arrivals and departures following Poisson point measures. This thesis is essentially consists of a first introductory chapter to the studied problems of complex networks modelling followed by a second chapter where we present an introduction to the theory of measure-valued stochastic processes. The chapters 3 and 4 are essentially composed of two articles co-written with my thesis advisor, Khader Khadraoui and submitted to journals for publication. The first article, included in chapter 3, mainly concerns the detailed description of the proposed model and a Monte Carlo procedure allowing one to generate synthetic networks. Moreover, analysis of the principal theoretical properties of the models is proposed. In particular, the infinitesimal generator of the Markov process which characterizes the network is established. We also study the survival and extinction properties of the network. Therefore, we propose an asymptotic analysis in which we demonstrate, using a renormalization technique, the weak convergence of the network process towards a deterministic measure solution of an integro-differential system. The article is completed by a numerical study. In the second article, included in chapter 4, we reformulate our model from the point of view of random geometric graphs. An introduction to random geometric graphs framework is proposed in chapter 1. The purpose of our approach is to study the connectivity properties of the network. These issues are widely studied in the literature of random geometric graphs and represent a considerable theoretical and practical interest. The proposed idea is to consider the model as a random geometric graph where the latent space represents the underlying space and the underlying distribution is given by the generative process of the network. Therefore, the question of the connectivity of the graph arises naturally. In particular, we focus on the distribution of isolated vertices, i.e. the members with no connections in the network. To this end, we make the additional hypothesis that each individual in the network can be active or not according to a Bernoulli distribution. We then show that for some values of the connectivity threshold, the number of isolated individuals follows a Poisson distribution. In addition, the question of clustering in the network is discussed and illustrated numerically. We conclude this thesis with a conclusion and perspectives chapter in which we discuss the relevance of the proposed approaches as well as the offered perspectives.The end of the thesis is devoted to the bibliographical references used throughout this work as well as appendices in which the reader can find useful reminders.
Style APA, Harvard, Vancouver, ISO itp.
30

Dufour, Marianne. "Sur la façon d'approcher les solutions de modèles algébriques du problème à N corps". Université Louis Pasteur (Strasbourg) (1971-2008), 1986. http://www.theses.fr/1986STR13130.

Pełny tekst źródła
Streszczenie:
Nous avons étudié une classe de problèmes algébriques en valeurs propres qui donne lieu à un type de matrice tridiagonale, en choisissant comme modèle représentatif, le modèle de Lipkin. Trois méthodes ont été mises en oeuvre, qui permettent un généralisation à des problèmes à plusieurs corps plus généraux. 1) La théorie dégénérée des amas liés (LCT) qui ignore les symétries des Hamiltoniens et définit une hiérarchie d'approximations dans un espace modèle à nombre fixé d'excitations élémentaires (particule-trou) de l'Hamiltonien non perturbé. La méthode est bonne pour des faibles perturbations, mais ne permet pas une description complète du spectre. 2) Une méthode nouvelle de linéarisation qui remplace la matrice à diagonaliser par un ensemble de matrices harmoniques "tengeantes" [. . . ]
We have studied a class of algebraic eigenvalue problems that generate tridiagonal matrices. The Lipkin Hamiltonian was chosen as representative. Three methods have been implemented, whose extension to more general many body problems seems possible. 1) Degenerate Linked Cluster Theory (LCT), which disregards special symmetries of the interaction and defines a hierarchy of approximation based on model spaces at fixed number of particule-hole excitation of the unperturbed Hamiltonian. The method works for small perturbations but does not yield a complete description. 2) A new linearization method that replaces the matrix to be diagonalized by local (tangent) approximations by harmonic matrices [. . . ]
Style APA, Harvard, Vancouver, ISO itp.
31

Chaulet, Nicolas. "Modèles d'impédance généralisée en diffraction inverse". Phd thesis, Palaiseau, Ecole polytechnique, 2012. https://pastel.hal.science/docs/00/76/16/42/PDF/chaulet.pdf56).

Pełny tekst źródła
Streszczenie:
Le but général de cette thèse est d'exploiter des modélisations asymptotiques pour la résolution de problèmes de diffraction inverse en électromagnétisme. Nous nous intéressons plus particulièrement au cas des conditions d'impédance généralisée qui modélisent notamment des matériaux fortement absorbants ou des revêtements de faible épaisseur. L'expression "impédance généralisée" signifie que la condition au bord fait intervenir un opérateur surfacique. Les conditions dites d'impédance classique entrent dans cette famille de conditions aux bord, dans ce cas, l'opérateur surfacique se réduit à la multiplication par une fonction. Dans le cadre des problèmes inverses, l'utilisation de modèles approchés permet de simplifier aussi bien la résolution numérique que l'analyse mathématique. De nombreux travaux ont été menés en diffraction inverse sur l'utilisation d'une condition d'impédance classique, nous les avons étendus pour des opérateurs surfaciques plus complexes faisant intervenir des dérivées tangentielles. Une partie importante de la thèse est consacrée à la mise en oeuvre des méthodes d'optimisation pour retrouver un obstacle ainsi que les paramètres définissant l'opérateur d'impédance. Nous présentons en particulier un calcul de dérivée de forme dans le cas où les équations de l'électromagnétisme se simplifient en une équation scalaire, nous étendons ensuite ce calcul aux équations de Maxwell vectorielles. Des exemples numériques de reconstruction de forme et de paramètres d'impédance viennent illustrer l'applicabilité des méthodes d'optimisation à notre problème inverse. Afin de compléter cette étude, nous avons utilisé une méthode qualitative - la méthode de factorisation - pour identifier un objet diffractant caractérisé par une condition d'impédance généralisée. Enfin, en relation avec les méthodes qualitatives, nous nous sommes penché sur l'utilisation des valeurs propres de transmission associées au problème de diffraction par des couches minces pour obtenir des informations sur la couche. Dans ce but, nous avons calculé et justifié le développement asymptotique de la première valeur propre de transmission intérieure par rapport à la faible épaisseur du revêtement. Ce développement donne une manière simple de calculer l'épaisseur du revêtement à partir du champ diffracté pour plusieurs fréquences
The main objective of this thesis is to use asymptotic models for the resolution of inverse electromagnetic scattering problems. We consider in particular the case of generalized impedance conditions that are models for thin coatings or strongly absorbing media. The term "generalized impedance" signifies that the boundary condition involves a surface operator. The so-called classical impedance boundary conditions is a particular case of generalized impedance boundary condition where the operator reduces to the multiplication by a function. In the inverse problems context, the use of such approximate models simplifies the numerical resolution as well as the mathematical analysis. In the literature a lot of studies focus on inverse scattering with classical impedance boundary conditions, we extend them to the case of more complex surface operators containing surface derivatives for example. An important part of the thesis deals the application of optimization methods to find both a shape and parameters that characterize the boundary operator. Among others, we present the computation of the shape derivative for Helmholtz' and Maxwell's equations. Numerical illustrations of shape reconstruction and identification of boundary coefficients are also provided. We complement this work by studying a qualitative method - the factorization method - to retrieve a shape with a general form of generalized impedance boundary conditions. In relation with qualitative methods, we investigated the use of the so-called interior transmission eigenvalues associated with thin layer structures to obtain information about the layer thickness and properties. In this view, we derived and justified the full asymptotic development of the first interior transmission eigenvalue with respect to the small thickness of the layer. This development provides a simple procedure to compute the thickness of the layer from multi-static scattered field data
Style APA, Harvard, Vancouver, ISO itp.
32

Chaulet, Nicolas. "Modèles d'impédance généralisée en diffraction inverse". Phd thesis, Ecole Polytechnique X, 2012. http://pastel.archives-ouvertes.fr/pastel-00761642.

Pełny tekst źródła
Streszczenie:
Le but général de cette thèse est d'exploiter des modélisations asymptotiques pour la résolution de problèmes de diffraction inverse en électromagnétisme. Nous nous intéressons plus particulièrement au cas des conditions d'impédance généralisée qui modélisent notamment des matériaux fortement absorbants ou des revêtements de faible épaisseur. L'expression "impédance généralisée" signifie que la condition au bord fait intervenir un opérateur surfacique. Les conditions dites d'impédance classique entrent dans cette famille de conditions aux bord, dans ce cas, l'opérateur surfacique se réduit à la multiplication par une fonction. Dans le cadre des problèmes inverses, l'utilisation de modèles approchés permet de simplifier aussi bien la résolution numérique que l'analyse mathématique. De nombreux travaux ont été menés en diffraction inverse sur l'utilisation d'une condition d'impédance classique, nous les avons étendus pour des opérateurs surfaciques plus complexes faisant intervenir des dérivées tangentielles. Une partie importante de la thèse est consacrée à la mise en oeuvre des méthodes d'optimisation pour retrouver un obstacle ainsi que les paramètres définissant l'opérateur d'impédance. Nous présentons en particulier un calcul de dérivée de forme dans le cas où les équations de l'électromagnétisme se simplifient en une équation scalaire, nous étendons ensuite ce calcul aux équations de Maxwell vectorielles. Des exemples numériques de reconstruction de forme et de paramètres d'impédance viennent illustrer l'applicabilité des méthodes d'optimisation à notre problème inverse. Afin de compléter cette étude, nous avons utilisé une méthode qualitative - la méthode de factorisation - pour identifier un objet diffractant caractérisé par une condition d'impédance généralisée. Enfin, en relation avec les méthodes qualitatives, nous nous sommes penché sur l'utilisation des valeurs propres de transmission associées au problème de diffraction par des couches minces pour obtenir des informations sur la couche. Dans ce but, nous avons calculé et justifié le développement asymptotique de la première valeur propre de transmission intérieure par rapport à la faible épaisseur du revêtement. Ce développement donne une manière simple de calculer l'épaisseur du revêtement à partir du champ diffracté pour plusieurs fréquences.
Style APA, Harvard, Vancouver, ISO itp.
33

Preget, Raphaële. "Les adjudications des valeurs du Trésor : enchères discriminatoires versus enchères à prix uniforme : contributions théoriques et empiriques". Paris 1, 2001. http://www.theses.fr/2001PA010043.

Pełny tekst źródła
Streszczenie:
L'objectif de cette thèse est d'apporter des éléments de réponse au débat persistant qui oppose les deux procédures d'adjudications les plus couramment utilisées dans le monde pour le placement des titres publics: l'enchère discriminatoire et l'enchère à prix uniforme. Du point de vue du Trésor, quelle est la procédure d'enchère qui permet de minimiser le coût de financement de la dette publique ? La réponse à cette question est difficile à double titre. D'une part, les adjudications du Trésor sont des enchères d'un bien divisible. D'autre part, l'environnement dans lequel se déroule ces enchères est relativement complexe (enchères répétées, simultanées, en présence de marchés parallèles. . . ) Le cadre d'analyse retenu est celui de la théorie des enchères de bien divisible à valeur commune dans lesquelles les enchérisseurs soumettent une fonction de demande. Essentiellement factuelle, la première partie de la thèse est une réflexion générale sur la problématique étudiée. Elle décrit le marché des valeurs Trésor et offre une synthèse de la littérature qui fait le point sur le débat. La deuxième partie porte sur la modélisation théorique et propose deux contributions originales: une critique du modèle de Wang et Zender ( 1999) et une analyse de la pratique des offres non compétitives. La troisième partie de la thèse regroupe trois études empiriques qui caractérisent le cas de la France: une comparaison des prix aux enchères et ceux du marché secondaire, une analyse de la demande agrégée et une estimation structurelle d'un modèle d'enchère du Trésor. Les résultats théoriques et empiriques obtenus tout au long de la thèse amènent à penser que le Trésor français a fait un choix raisonnable en adoptant l'enchère discriminatoire.
Style APA, Harvard, Vancouver, ISO itp.
34

Dias, Neto David. "Modélisation de la dépendance dans l'analyse multivariée des séries financières". Paris 1, 2004. http://www.theses.fr/2004PA010013.

Pełny tekst źródła
Streszczenie:
Les séries financières sont connues pour présenter de nombreuses "anomalies" qui portent à mal l'inférence statistique traditionnelle basée sur la normalité des processus. Les faits stylisés observés dans l'analyse statistique univariée sont essentiellement l'hétéroscedasticité variable dans le temps et le caractère leptokurtique et asymétrique des distributions empiriques. En analyse multivariée vient s'ajouter à ces difficultés celle de la spécificité de la dépendance qui a pendant longtemps été absente de la littérature économétrique. Ce n'est que très récemment, avec la redécouverte des fonctions copules, que cet aspect a pris une place non négligeable dans les études économétriques. Cette thèse a pour objet de montrer que les structures de dépendance des séries financières, lorsqu'elles font l'objet d'une analyse jointe, correspondent rarement au cas Gaussien.
Style APA, Harvard, Vancouver, ISO itp.
35

Michel, Philippe. "Principe d'entropie relative généralisée et dynamique de populations structurées". Paris 9, 2005. https://portail.bu.dauphine.fr/fileviewer/index.php?doc=2005PA090032.

Pełny tekst źródła
Streszczenie:
Dans cette thèse, nous nous intéressons à l'étude et au contrôle de la dynamique de populations structurées, en âge (Mc Kendrick), en taille (modèle de division cellulaire-DVC) ou autres. Pour cela, nous exhibons une famille d'entropies relatives (Entropie Relative Généralisée-GRE) pour des modèles n'ayant pas de loi de conservation simple (masse, taille. . . ). L'existence d'une telle famille et l'étude fine du comportement asymptotique sont conditionnées par l'existence et l'unicité de la solution à un problème aux valeurs propres. L'étude de ce problème dans le cas d'un modèle DVC nous a permis, entre autres, de montrer que le taux de croissance Malthusien de populations cellulaires dépendait de la symétrie de la division. Dans un exemple de modèle en âge non linéaire, on a pu montrer la convergence globale en temps et comparer la méthode GRE à la méthode classique par linéarisation
This thesis deals with the dynamic of population balance equations (PBE) as the Cell Division Equation (CDE) or as the classical McKendrick age model. More precisely, we show a family of relative entropies (General Relative Entropy-GRE) in a large class of PBE. The existence of such a family and a sharp study of the asymptotic behavior is related to the existence and uniqueness of the solution to an eigenproblem. For instance, the study of this eigenproblem in a CDE model, allows us to show the link between the Malthusian growth rate of a cell population an the symmetry of its division. We prove, in a simple nonlinear age model, the global convergence to a steady state and we compare the results given by the GRE method and the linearization method
Style APA, Harvard, Vancouver, ISO itp.
36

Biane, Célia. "Reprogrammation comportementale : modèles, algorithmes et application aux maladies complexes". Thesis, Université Paris-Saclay (ComUE), 2018. http://www.theses.fr/2018SACLE050.

Pełny tekst źródła
Streszczenie:
Les maladies complexes comme le Cancer et la maladie d'Alzheimer sont causées par des perturbations moléculaires multiples responsables d'un comportement cellulaire pathologique.Un enjeu majeur de la médecine de précision est l'identification des perturbations moléculaires induites par les maladies complexes et les thérapies à partir de leurs conséquences sur les phénotypes cellulaire.Nous définissons un modèle des maladies complexes,appelé la reprogrammation comportementale,assimilant les perturbations moléculaires à des altérations des fonctions dynamiques locales de systèmes dynamiques discrets induisant une reprogrammation de la dynamique globale du réseau. Ce cadre de modélisation s'appuie d'une part, sur les réseaux Booléens contrôlés, qui sont des réseaux Booléens dans lesquels sont insérés des paramètres de contrôle modélisant les perturbations et, d'autre part, sur la définition de modes (Possibilité, Nécessité) permettant d'exprimer les objectifs de cette reprogrammation.A partir de ce cadre, nous démontrons que le calcul des noyaux, i.e., des ensembles minimaux d'actions permettant la reprogrammation selon un mode s'exprime comme un problème d'inférence abductive en logique propositionnelle. En nous appuyant sur les méthodes historiques de calcul d'impliquants premiers des fonctions Booléennes,nous développons deux méthodes permettant le calcul exhaustif des noyaux de la reprogrammation. Enfin, nous évaluons la pertinence du cadre de modélisation pour l'identification des perturbations responsables de la transformation d'une cellule saine en cellule cancéreuse et la découverte de cibles thérapeutiques sur un modèle du cancer du sein. Nous montrons notamment que les perturbations inférées par nos méthodes sont compatibles avec la connaissance biologique en discriminant les oncogènes des gènes suppresseurs de tumeurs et en récupérant la mutation du gène BRCA1. De plus, la méthode récupère le phénomène de létalité synthétique entre PARP1 et BRCA1, qui constitue un traitement anticancéreux optimal car il cible spécifiquement les cellules tumorales
Complex diseases such as cancer and Alzheimer's are caused by multiple molecular perturbations responsible for pathological cellular behavior. A major challenge of precision medicine is the identification of the molecular perturbations induced by the disease and the therapies from their consequences on cell phenotypes. We define a model of complex diseases, called behavioral reprogramming, that assimilates the molecular perturbations to alterations of the dynamic local functions of discrete dynamical systems inducing a reprogramming of the global dynamics of the network. This modeling framework relies on the one hand, on Control Boolean networks, which are Boolean networks containing control parameters modeling the perturbations and, on the other hand, the definition of reprogramming modes (Possibility, Necessity) expressing the objective of the behavioral reprogramming. From this framework, we demonstrate that the computation of the cores, namely, the minimal sets of action allowing reprogramming is a problem of abductive inference in propositional logic. Using historical methods computing the prime implicants of Boolean functions, we develop two methods computing all the reprogramming cores.Finally, we evaluate the modeling framework for the identification of perturbations responsible for the transformation of a healthy cell into a cancercell and the discovery of therapeutic targets ona model of breast cancer. In particular, we showthat the perturbations inferred by our methods a recompatible with biological knowledge by discriminating oncogenes and tumor suppressor genes and by recovering the causal of the BRCA1 gene. In addition, the method recovers the synthetic lethality phenomenon between PARP1 and BRCA1 that constitutes an optimal anti-cancer treatment because it specifically targets tumor cells
Style APA, Harvard, Vancouver, ISO itp.
37

Kourouma, Lancine. "Mesure du capital réglementaire par des modèles de risque de marché". Phd thesis, Université de Grenoble, 2012. http://tel.archives-ouvertes.fr/tel-00864121.

Pełny tekst źródła
Streszczenie:
Suite à la crise financière et économique de 2008, il a été constaté sur le portefeuille de négociation des banques un montant de capital réglementaire significativement inférieur aux pertes réelles. Pour comprendre les causes de cette insuffisance de capital réglementaire, il nous a paru important d'évaluer la fiabilité des modèles de mesure de risque de marché et de proposer des méthodologies de stress test pour la gestion des risques extrêmes. L'objectif est de mesurer le capital réglementaire sur un portefeuille de négociation composé d'actions et de matières premières par la mesure de la Value at Risk (VaR) et l'Expected Shortfall. Pour réaliser cet objectif, nous avons utilisé le modèle Generalized Pareto Distribution (GPD) et deux modèles internes utilisés par les banques : méthode de simulation historique et modèle de la loi normale. Une première évaluation de la fiabilité effectuée sur les trois modèles de risque sous l'hypothèse de volatilité constante, montre que les modèles internes des banques et le modèle GPD ne mesurent pas correctement le risque du portefeuille d'étude pendant les périodes de crise. Néanmoins, le modèle GPD est fiable en période de faible volatilité mais avec une forte surestimation du risque réel ; cela peut conduire les banques à bloquer plus de fonds propres réglementaires qu'il est nécessaire. Une seconde évaluation de la fiabilité des modèles de risque a été effectuée sous l'hypothèse du changement de la volatilité et par la prise en compte de l'effet asymétrique des rentabilités financières. Le modèle GPD s'est révélé le plus fiable quelles que soient les conditions des marchés. La prise en compte du changement de la volatilité a amélioré la performance des modèles internes des banques. L'intégration des scénarios historiques et hypothétiques dans les modèles de risque a permis d'évaluer le risque extrême tout en diminuant la subjectivité reprochée aux techniques de stress test. Le stress test réalisé avec les modèles internes des banques ne permet pas une mesure correcte du risque extrême. Le modèle GPD est mieux adapté pour le stress test. Nous avons développé un algorithme de stress test qui permettra aux banques d'évaluer le risque extrême de leurs portefeuilles et d'identifier les facteurs de risque responsables de ce risque. Le calcul du capital réglementaire sur la base de la somme de la VaR et du stress VaR n'est pas logique et entraîne un doublement des fonds propres réglementaires des banques. Le doublement de ces fonds propres aura pour conséquence le resserrement du crédit à l'économie. Nous observons que le coefficient multiplicateur et le principe de la racine carrée du temps de l'accord de Bâle conduisent les banques à faire un arbitrage en faveur des modèles de risque non fiables.
Style APA, Harvard, Vancouver, ISO itp.
38

Karam, Margot. "Génération de test de circuits intégrés fondée sur des modèles fonctionnels". Phd thesis, Grenoble INPG, 1991. http://tel.archives-ouvertes.fr/tel-00339935.

Pełny tekst źródła
Streszczenie:
Cette thèse concerne l'utilisation de modèles fonctionnels dans le test de circuits intégrés complexes. Dans la première partie, des vecteurs de test sont générés pour les automates d'états finis a partir de leurs spécifications de synthèse. Un premier ensemble de vecteurs de test est calcule en parcourant tous les arcs du graphe de contrôle. Les valeurs d'entrées non spécifiées sur les transitions sont fixées afin d'accroitre la couverture. Il est montre que ce test a une excellente couverture par rapport a sa longueur. Les fautes résiduelles sont détectées par une methode de distinction sur les modèles machine juste machine fausse. La deuxième partie est consacrée au test hiérarchisé de circuits complexes. Les vecteurs de test locaux aux blocs sont justifies vers les entrées primaires et propages en avant vers les sorties primaires en utilisant des variables symboliques et des modèles fonctionnels pour les blocs traverses. Des techniques originale de propagation retardée permettent de restreindre le nombre d'échecs des propagations. Un prototype en prolog a été expérimenté
Style APA, Harvard, Vancouver, ISO itp.
39

Liberge, Erwan. "Modèles réduits obtenus par la méthode de POD-Galerkin pour les problèmes d'interaction fluide structure". Phd thesis, Université de La Rochelle, 2008. http://tel.archives-ouvertes.fr/tel-00348432.

Pełny tekst źródła
Streszczenie:
Motivés par la construction de modèles réduits en interaction fluide structure, nous avons étudié l'application de la POD dans ce domaine. Cette méthode a été choisie suite à son utilisation en mécanique des fluides, domaine dans lequel elle a largement fait ses preuves.

Nous avons donc dans un premier temps présenté et rappelé les principaux résultats de la POD. Ces résultats ont été illustrés sur l'équation de Burgers monodimensionnelle et un écoulement à faible Reynolds autour d'un cylindre. La décomposition Bi-orthogonale (BOD) a également été testée pour ces deux cas, celle-ci n'améliorant pas les résultats obtenus par la POD. La POD pour l'étude de structures en vibration a également été testée.

Ensuite, nous avons étudié son application pour des problèmes d'interaction fluide structure. La complexité tient dans le caractère mobile des domaines alors que la base POD est spatiale et indépendante du temps. Pour remédier à cet inconvénient, on propose d'établir une base POD pour un champ de vitesse global défini sur un domaine fixe. On introduit pour cela un domaine de référence fixe contenant l'ensemble des configurations mobiles sur un intervalle de temps. On obtient ainsi une base POD pour un champ de vitesse fluide et solide. On a ensuite proposé l'écriture d'un modèle réduit pour des problèmes traitant d'interaction entre un fluide et un solide rigide. Pour cela, une formulation multiphasique du type domaine fictifs a été utilisée. Cette méthode est testée avec succès sur un cas monodimensionnel et trois cas bidimensionnels, traitant un fluide initialement au repos, ensuite un écoulement à nombre de Reynolds modéré, et un dernier exemple à fort nombre de Reynold.
Style APA, Harvard, Vancouver, ISO itp.
40

Bui, Dung. "Modèles d'ordre réduit pour les problèmes aux dérivées partielles paramétrés : approche couplée POD-ISAT et chainage temporel par algorithme pararéel". Thesis, Châtenay-Malabry, Ecole centrale de Paris, 2014. http://www.theses.fr/2014ECAP0021/document.

Pełny tekst źródła
Streszczenie:
Cette thèse porte sur la conception des méthodes robustes de réduction d’ordre de modèles numériques de type Éléments Finis (EF) avec contrôle de la précision. La réduction d’ordre est en général nécessaire pour réduire drastiquement les temps de calcul et permettre ainsi une analyse paramétrique, une étude de faisabilité ou de performance de système (avion, unité de production, procédé complexe, etc). Dans cette étude, la technique de décomposition orthogonale aux valeurs propres (POD) sera utilisée pour construire des modèles réduits locaux. Informatiquement parlant, le “modèle” sera considéré comme une base de données de résultats de calcul avec capacité d’extrapolation et d’interpolation locale. Une stratégie adaptative pour stocker et accéder à la base de données est étudiée en étendant l’algorithme In situ Adaptive Tabulation (ISAT) proposé initialement par Pope. En fonction de l’usage et des exigences en précision des résultats, la base de données est enrichie en ligne (online) par des appels au modèle fin en respectant une précision spécifiée jusqu’à couvrir le domaine paramétrique entier, après quoi l’évaluation d’une solution devient très peu couteuse. L’approche couplée POD-ISAT proposée dans cette thèse fournit une méthode de réduction de modèle EF très performante. La méthodologie est évaluée sur un cas réel de conditionnement d’air en régime stationnaire de cabine d’avion dépendant de plusieurs paramètres de conception (température et vitesse d’entrée d’air, mode de ventilation personnalisée, conductivité thermique du fuselage, etc.). Pour les problèmes d’évolution en temps, nous explorons une piste de chainage de modèles et d’utilisation d’algorithme de parallélisation en temps tel que l’algorithme pararéel initialement proposé par Lions, Maday et Turinici (2001). Nous proposons ici une variante quasi-Newton de l’algorithme pararéel que nous appelons algorithme Broyden-pararéel. Il est appliqué au calcul de la diffusion d’un gaz dans la cabine d’avion. Cette thèse s’insère dans le cadre du projet CSDL (Complex System Design Lab, Fond Unique Interministériel) visant à développer une plate-forme logicielle multidisciplinaire pour la conception de systèmes complexes
In this thesis, an efficient Reduced Order Modeling (ROM) technique with control of accuracy for parameterized Finite Element solutions is proposed. The ROM methodology is usually necessary to drastically reduce the computational time and allow for tasks like parameter analysis, system performance assessment (aircraft, complex process, etc.). In this thesis, a ROM using Proper Orthogonal Decomposition (POD) will be used to build local models. The “model” will be considered as a database of simulation results store and retrieve the database is studied by extending the algorithm In Situ Adaptive Tabulation (ISAT) originally proposed by Pope (1997). Depending on the use and the accuracy requirements, the database is enriched in situ (i.e. online) by call of the fine (reference) model and construction of a local model with an accuracy region in the parameter space. Once the trust regions cover the whole parameter domain, the computational cost of a solution becomes inexpensive. The coupled POD-ISAT, here proposed, provides a promising effective ROM approach for parametric finite element model. POD is used for the low-order representation of the spatial fields and ISAT for the local representation of the solution in the design parameter space. This method is tested on a Engineering case of stationary air flow in an aircraft cabin. This is a coupled fluid-thermal problem depending on several design parameters (inflow temperature, inflow velocity, fuselage thermal conductivity, etc.). For evolution problems, we explore the use of time-parallel strategies, namely the parareal algorithm originally proposed by Lions, Maday and Turinici (2001). A quasi-Newton variant of the algorithm called Broyden-parareal algorithm is here proposed. It is applied to the computation of the gas diffusion in an aircraft cabin. This thesis is part of the project CSDL (Complex System Design Lab) funded by FUI (Fond Unique Interministériel) aimed at providing a software platform for multidisciplinary design of complex systems
Style APA, Harvard, Vancouver, ISO itp.
41

Bargès, Mathieu. "Modèles de dépendance dans la théorie du risque". Phd thesis, Université Claude Bernard - Lyon I, 2010. http://tel.archives-ouvertes.fr/tel-00736207.

Pełny tekst źródła
Streszczenie:
Initialement, la théorie du risque supposait l'indépendance entre les différentes variables aléatoires et autres paramètres intervenant dans la modélisation actuarielle. De nos jours, cette hypothèse d'indépendance est souvent relâchée afin de tenir compte de possibles interactions entre les différents éléments des modèles. Dans cette thèse, nous proposons d'introduire des modèles de dépendance pour différents aspects de la théorie du risque. Dans un premier temps, nous suggérons l'emploi des copules comme structure de dépendance. Nous abordons tout d'abord un problème d'allocation de capital basée sur la Tail-Value-at-Risk pour lequel nous supposons un lien introduit par une copule entre les différents risques. Nous obtenons des formules explicites pour le capital à allouer à l'ensemble du portefeuille ainsi que la contribution de chacun des risques lorsque nous utilisons la copule Farlie-Gumbel-Morgenstern. Pour les autres copules, nous fournissons une méthode d'approximation. Au deuxième chapitre, nous considérons le processus aléatoire de la somme des valeurs présentes des sinistres pour lequel les variables aléatoires du montant d'un sinistre et de temps écoulé depuis le sinistre précédent sont liées par une copule Farlie-Gumbel-Morgenstern. Nous montrons comment obtenir des formes explicites pour les deux premiers moments puis le moment d'ordre m de ce processus. Le troisième chapitre suppose un autre type de dépendance causée par un environnement extérieur. Dans le contexte de l'étude de la probabilité de ruine d'une compagnie de réassurance, nous utilisons un environnement markovien pour modéliser les cycles de souscription. Nous supposons en premier lieu des temps de changement de phases de cycle déterministes puis nous les considérons ensuite influencés en retour par les montants des sinistres. Nous obtenons, à l'aide de la méthode d'erlangisation, une approximation de la probabilité de ruine en temps fini.
Style APA, Harvard, Vancouver, ISO itp.
42

Battisti, Beatrice. "Modélisation multi-échelle et multi-fidélité pour des extracteurs d'énergie marine". Electronic Thesis or Diss., Bordeaux, 2024. http://www.theses.fr/2024BORD0072.

Pełny tekst źródła
Streszczenie:
Le secteur maritime s’oriente de plus en plus vers les convertisseurs d’énergie des vagues (WECs), en particulier vers des fermes de WECs. Cependant, les simulations numériques sont complexes, et bien que les modèles haute fidélité assurent la précision, leurs exigences computationnelles ont stimulé l’intérêt pour les techniques de réduction de modèles. Les modèles à ordre réduit basés sur la Décomposition Orthogonale aux valeurs Propres (POD) sont efficaces dans les écoulements monophasiques, mais rencontrent des problèmes de stabilité avec les écoulements multiphasiques. Un modèle multifidélité intègre la CFD (Computational Fluid Dynamics) pour le champ proche des WECs et la POD pour la propagation des vagues en champ lointain. L’échange d’informations assure une description précise de l’écoulement et de la dynamique des flotteurs. Les tests confirment son efficacité, réduisant significativement la charge computationnelle, cruciale pour aborder l’optimisation des fermes de WECs
The marine sector is increasingly turning to wave energy converters (WECs) for clean energy generation. For commercial-scale production, WEC farm deployment is essential, but requires complex numerical simulations. While high-fidelity models like Computational Fluid Dynamics (CFD) ensure accuracy, their substantial computational demands have prompt interest in model order reduction techniques. Proper Orthogonal Decomposition (POD) projection-based reduced order models have proven effective in monophase flows, yet face stability issues with multiphase flows. A proposed multi-fidelity model integrates CFD for WEC near-field description, and POD for far-field wave propagation. Bidirectional information exchange ensures precise flow reconstruction and floater dynamics description. Testing confirms its efficacy in various scenarios, significantly reducing the computational burden, decisive for tackling WEC farm design and optimization
Il settore marittimo è sempre più orientato verso i convertitori di energia delle onde (WECs), in particolare verso i parchi di WECs. Tuttavia, le simulazioni numeriche sono complesse e, sebbene i modelli ad alta fedeltà assicurino precisione, i loro requisiti computazionali hanno stimolato l’interesse per le tecniche di riduzione di modello. I modelli a ordine ridotto basati sulla Decomposizione Ortogonale ai valori Propri (POD) sono efficaci per flussi monofase, ma incontrano problemi di stabilità con i flussi multifase. Un modello multifideltà è proposto, che integra la CFD (Computational Fluid Dynamics) per il campo vicino ai WECs e la POD per la propagazione delle onde nel campo lontano. Lo scambio di informazioni assicura una descrizione precisa del flusso e della dinamica dei WECs. I test ne confermano l’efficacia, riducendo significativamente il carico computazionale, cruciale per affrontare l’ottimizzazione dei parchi di WECs
Style APA, Harvard, Vancouver, ISO itp.
43

Jbili, Walid. "Modélisation asymétrique de titres financiers". Thesis, Université Laval, 2008. http://www.theses.ulaval.ca/2008/25558/25558.pdf.

Pełny tekst źródła
Style APA, Harvard, Vancouver, ISO itp.
44

Février, Maxime. "Liberté infinitésimale et modèles matriciels déformés". Toulouse 3, 2010. http://thesesups.ups-tlse.fr/1252/.

Pełny tekst źródła
Streszczenie:
Le travail effectué dans cette thèse concerne les domaines de la théorie des matrices aléatoires et des probabilités libres, dont on connaît les riches connexions depuis le début des années 90. Les résultats s'organisent principalement en deux parties : la première porte sur la liberté infinitésimale, la seconde sur les matrices aléatoires déformées. Plus précisément, on jette les bases d'une théorie combinatoire de la liberté infinitésimale, au premier ordre d'abord, telle que récemment introduite par Belinschi et Shlyakhtenko, puis aux ordres supérieurs. On en donne un cadre simple et général, et on introduit des fonctionnelles de cumulants non-croisés, caractérisant la liberté infinitésimale. L'accent est mis sur la combinatoire et les idées d'essence différentielle qui sous-tendent cette notion. La seconde partie poursuit l'étude des déformations de modèles matriciels, qui a été ces dernières années un champ de recherche très actif. Les résultats présentés sont originaux en ce qu'ils concernent des perturbations déterministes Hermitiennes de rang non nécessairement fini de matrices de Wigner et de Wishart. En outre, un apport de ce travail est la mise en lumière du lien entre la convergence des valeurs propres de ces modèles et les probabilités libres, plus particulièrement le phénomène de subordination pour la convolution libre. Ce lien donne une illustration de la puissance des idées des probabilités libres dans les problèmes de matrices aléatoires
This thesis is about Random Matrix Theory and Free Probability whose strong relation is known since the early nineties. The results mainly organize in two parts : one on infinitesimal freeness, the other on deformed matrix models. More precisely, a combinatorial theory of first order infinitesimal freeness, as introduced by Belinschi and Shlyakhtenko, is developed and generalized to higher order. We give a simple and general framework and we introduce infinitesimal non-crossing cumulant functionals, providing a characterization of infinitesimal freeness. The emphasis is put on combinatorics and on the essentially differential ideas underlying this notion. The second part carries further the study of deformations of matrix models, which has been a very active field of research these past years. The results we present are original in the sense they deal with non-necessarily finite rank deterministic Hermitian perturbations of Wigner and Wishart matrices. Moreover, these results shed light on the link between convergence of eigenvalues of deformed matrix models and free probability, particularly the subordination phenomenon related to free convolution. This link gives an illustration of the power of free probability ideas in random matrix problems
Style APA, Harvard, Vancouver, ISO itp.
45

Hoayek, Anis. "Estimation des paramètres pour des modèles adaptés aux séries de records". Thesis, Montpellier, 2016. http://www.theses.fr/2016MONTT336/document.

Pełny tekst źródła
Streszczenie:
Dans une série chronologique, une observation est appelée record au temps «t» si sa valeur est supérieure à toutes les valeurs précédentes. Suivant l’augmentation de «t», considérons la suite des valeurs des records et la suite des indices d’occurrence des records. Les propriétés stochastiques des suites de valeurs des records ont été largement étudiées dans le cas où les observations sont des variables aléatoires indépendantes et identiquement distribuées (iid). Il se trouve que beaucoup de ces propriétés sont universelles, c’est-à-dire tiennent pour n’importe quelle loi de probabilité commune des observations. En particulier, les records ont tendance à devenir plus espacés dans le temps à mesure que «t» augmente. Cependant, ce n’est pas ce que l’on observe dans de nombreux jeux de données réelles. Ceci a conduit à l’élaboration de modèles plus complexes pour fournir une meilleure prédiction.Le modèle, peut-être le plus simple mais en tout cas le plus populaire, pour une série de records issus d’observations indépendantes mais non identiquement distribuées est le modèle à dérive linéaire (LDM). Ce modèle a été étudié par de nombreux auteurs et trouvé en accord avec certains types de données où l’hypothèse iid ne tient pas. Cependant, dans des situations pratiques, l’utilisation du LDM nécessite la détermination du paramètre de dérive du modèle et cela pousse le problème dans le domaine de la statistique.Il existe une similitude entre les records et le traitement de données censurées en analyse de survie. En particulier, toutes les observations qui tombent entre deux records consécutifs et au-delà du dernier record peuvent être considérées comme des observations censurées par le dernier record observé. Pour mettre en évidence cette similitude, on introduit la suite des indicatrices de records qui prennent la valeur 1 si l’observation est un record et 0 sinon.Un autre modèle populaire est le modèle Yang-Nevzorov. Ce modèle est intéressant car il a la structure d’un modèle à risque proportionnel en analyse de survie, lequel a montré son utilité dans ce domaine pour modéliser de nombreux jeux de données. Cependant, à notre connaissance, l’inférence statistique pour le modèle Yang-Nevzorov a été peu développé.Le but de ce travail est d’introduire certains estimateurs des différents paramètres des modèles LDM et Yang respectivement et d’en obtenir leurs propriétés statistiques. Il est montré que le mécanisme de censure est informatif pour certains paramètres. Cela justifie l’analyse des qualités d’estimateurs qui peuvent être obtenus à partir de ces indicatrices de records. Nous donnons quelques propriétés exactes et asymptotiques de ces estimateurs. Il se trouve que dans le modèle de Yang, le comportement des différents estimateurs est indépendant de la distribution sous-jacente. Notons que nos estimateurs peuvent être utilisés même lorsque les valeurs exactes des records sont elles-mêmes indisponibles ou de mauvaise qualité et les seules indicatrices sont disponibles ou fiables. En outre, il est montré que des tests d’ajustement du modèle de Yang peuvent aussi être dérivés de ces indicatrices. Ces tests ont même des capacités diagnostiques qui peuvent aider à suggérer des corrections au modèle.Toujours dans le contexte d’un modèle de Yang, nous étudions le comportement stochastique du temps inter-records et nous donnons sa loi asymptotique, indépendamment de la loi des va sous-jacentes. De plus, nous appliquons nos résultats théoriques à des données analysées précédemment par Yang.Enfin, nous passons à l’utilisation de la totalité des données disponibles (valeurs et indices/indicatrices de records) afin de calculer, par plusieurs méthodes, des estimateurs des paramètres des modèles LDM et Yang-Nevzorov. De plus, nous introduisons des tests statistiques qui nous aident à vérifier la conformité du choix de la distribution sous-jacente des observations et à choisir entre un modèle LDM et de Yang
In a time series, an observation is called a record at time «t» if its value is greater than all previous values. As «t» increases, consider the sequence of records and the sequence of indices of occurrence of the records.The stochastic properties of sequences of record values have been much studied in the case where the observations are independent and identically distributed (iid) random variables. It turns out that many of these properties are universal, i.e. they hold for any cumulative distribution function for the underlying observations. In particular, records have a tendency to become further separated in time as «t» increases. However, this is not what is observed in many real data sets. This has lead to the development of more comprehensive models to provide better prediction.One of the simplest and popular model for a series of records extracted from independent but not identically distributed observations is the linear drift model (LDM). This model has been studied by many authors and found to be in agreement with some data sets where the iid assumption does not hold. However, for its uses in practical situations, the LDM requires the specification of the drift parameter of the model and this brings the problem into the realm of statistics.There are similarities between records and censored data in e.g. survival analysis. In particular, all observations that fall between two consecutive records and beyond the last record, can be seen as censored, by the last observed record. To highlight these similarities, consider the sequence of record indicators which are 1 if the observation is a record and 0 otherwise.Another popular model is the Yang-Nevzorov model. This model is interesting because it has the structure of a proportional hazard model, which have been shown to provide good fit to many data sets in survival analysis. However, to the best of our knowledge, statistical inference for the Yang- Nevzorov model has been little developed.The goal of this work is to introduce some estimators of the parameters in LDM and Yang’s model respectively and derive their statistical properties. It is shown that the censoring mechanism is informative for certain parameters. This justifies investigating the usefulness of estimators that can be extracted from record indicators. We give some exact and asymptotic properties of these estimators. It turns out that in a Yang’s model, the behavior of these estimators is distribution-free, i.e. does not involve the underlying CDF. Note that our estimators can be used even when the exact value of the records are themselves unavailable or of poor quality and only the indicators of their occurrence are available or trustworthy. Also, it is shown that distribution-free goodness-of-fit tests for Yang’s model can be derived from these indicators. These tests even have some diagnostic capabilities that can help in suggesting corrections to the model.Still in the context of a Yang’s model, we study the stochastic behavior of the inter-record time and give its asymptotic distribution regardless of the choice of the underlying distribution. In addition, we apply our theoretical results to a previously analyzed data set.Finally, we turn to the use of all available data (record values and indices/indicators) in order to calculate, by several methods, estimators of parameters in LDM and Yang-Nevzorov’s model. In addition, we introduce statistical tests that help us to check the conformity of the choice of the underlying distribution and to choose between LDM and Yang
Style APA, Harvard, Vancouver, ISO itp.
46

Maïzi, Nadia. "Réduction au sens de la norme de Hankel de modèles dynamiques de dimension infinie". Phd thesis, École Nationale Supérieure des Mines de Paris, 1992. http://tel.archives-ouvertes.fr/tel-00410522.

Pełny tekst źródła
Streszczenie:
L'objet de cette thèse est d'étudier l'applicabilité de la méthode d'approximation rationnelle en norme de Hankel à des systèmes dynamiques linéaires de dimension d'état infinie. On illustre par trois exemples concrets les possibilités d'utilisation des techniques d'approximation développées ces dernières années, notamment par Curtain, Glover et Partington. Les exemples choisis représentent des phénomènes d'évolution décrits par des équations aux dérivées partielles, par rapport au temps et aux variables d'espace. Il s'agit: d'un problème de diffusion de chaleur, de type parabolique, pour lequel les techniques d'approximation s'adaptent assez directement ; de deux problèmes hyperboliques décrivant l'évolution d'une poutre en flexion et en torsion, pour lesquels une méthode originale appelée ``relaxation'' a été mise au point: préalable à l'approximation de Hankel, elle permet son application lorsque les pôes associés au système hyperbolique croissent suffisamment rapidement.
Style APA, Harvard, Vancouver, ISO itp.
47

Dor, Frédéric. "Validation de modèles d'estimation de l'exposition humaine aux polluants des sols : étude Solex : contribution à l'analyse de l'exposition professionnelle aux sols pollués". Université Joseph Fourier (Grenoble), 1999. http://www.theses.fr/1999GRE18006.

Pełny tekst źródła
Style APA, Harvard, Vancouver, ISO itp.
48

Cloez, Bertrand. "Comportement asymptotique de processus avec sauts et applications pour des modèles avec branchement". Phd thesis, Université Paris-Est, 2013. http://tel.archives-ouvertes.fr/tel-00862913.

Pełny tekst źródła
Streszczenie:
L'objectif de ce travail est d'étudier le comportement en temps long d'un modèle de particules avec une interaction de type branchement. Plus précisément, les particules se déplacent indépendamment suivant une dynamique markovienne jusqu'au temps de branchement, où elles donnent naissance à de nouvelles particules dont la position dépend de celle de leur mère et de son nombre d'enfants. Dans la première partie de ce mémoire nous omettons le branchement et nous étudions le comportement d'une seule lignée. Celle-ci est modélisée via un processus de Markov qui peut admettre des sauts, des parties diffusives ou déterministes par morceaux. Nous quantifions la convergence de ce processus hybride à l'aide de la courbure de Wasserstein, aussi nommée courbure grossière de Ricci. Cette notion de courbure, introduite récemment par Joulin, Ollivier, et Sammer correspond mieux à l'étude des processus avec sauts. Nous établissons une expression du gradient du semigroupe des processus de Markov stochastiquement monotone, qui nous permet d'expliciter facilement leur courbure. D'autres bornes fines de convergence en distance de Wasserstein et en variation totale sont aussi établies. Dans le même contexte, nous démontrons qu'un processus de Markov, qui change de dynamique suivant un processus discret, converge rapidement vers un équilibre, lorsque la moyenne des courbures des dynamiques sous-jacentes est strictement positive. Dans la deuxième partie de ce mémoire, nous étudions le comportement de toute la population de particules. Celui-ci se déduit du comportement d'une seule lignée grâce à une formule many-to-one, c'est-à-dire un changement de mesure de type Girsanov. Via cette transformation, nous démontrons une loi des grands nombres et établissons une limite macroscopique, pour comparer nos résultats aux résultats déjà connus en théorie des équations aux dérivées partielles. Nos résultats sont appliqués sur divers modèles ayant des applications en biologie et en informatique. Parmi ces modèles, nous étudierons le comportement en temps long de la plus grande particule dans un modèle simple de population structurée en taille
Style APA, Harvard, Vancouver, ISO itp.
49

Loum, Mor Absa. "Modèle de mélange et modèles linéaires généralisés, application aux données de co-infection (arbovirus & paludisme)". Thesis, Université Paris-Saclay (ComUE), 2018. http://www.theses.fr/2018SACLS299/document.

Pełny tekst źródła
Streszczenie:
Nous nous intéressons, dans cette thèse, à l'étude des modèles de mélange et des modèles linéaires généralisés, avec une application aux données de co-infection entre les arbovirus et les parasites du paludisme. Après une première partie consacrée à l'étude de la co-infection par un modèle logistique multinomial, nous proposons dans une deuxième partie l'étude des mélanges de modèles linéaires généralisés. La méthode proposée pour estimer les paramètres du mélange est une combinaison d'une méthode des moments et d'une méthode spectrale. Nous proposons à la fin une dernière partie consacrée aux mélanges de valeurs extrêmes en présence de censure. La méthode d'estimation proposée dans cette partie se fait en deux étapes basées sur la maximisation d'une vraisemblance
We are interested, in this thesis, to the study of mixture models and generalized linear models, with an application to co-infection data between arboviruses and malaria parasites. After a first part dedicated to the study of co-infection using a multinomial logistic model, we propose in a second part to study the mixtures of generalized linear models. The proposed method to estimate the parameters of the mixture is a combination of a moment method and a spectral method. Finally, we propose a final section for studing extreme value mixtures under random censoring. The estimation method proposed in this section is done in two steps based on the maximization of a likelihood
Style APA, Harvard, Vancouver, ISO itp.
50

Tallet, Alexandra. "Contrôle des écoulements par modèles d'ordre réduit, en vue de l'application à la ventilation naturelle des bâtiments". Phd thesis, Université de La Rochelle, 2013. http://tel.archives-ouvertes.fr/tel-01071576.

Pełny tekst źródła
Streszczenie:
Afin d'élaborer des stratégies de contrôle des écoulements en temps réel, il est nécessaire d'avoir recours à des modèles d'ordre réduit (ROMs), car la résolution des équations complètes est trop coûteuse en temps de calcul (des jours, des semaines) et en espace mémoire. Dans cette thèse, les modèles réduits ont été construits avec la méthode POD (Proper Orthogonal Decomposition). Une méthode de projection basée sur la minimisation des résidus, initiée par les travaux de Leblond et al. [134] a été proposée. Dans certaines configurations, la précision des résultats est significativement augmentée, par rapport à une projection de Galerkin classique. Dans un second temps, un algorithme d'optimisation non-linéaire, à direction de descente basée sur la méthode des équations adjointes, a été couplé avec des modèles réduits utilisant des bases POD. Deux méthodes de construction de base POD ont été employées : soit avec un paramètre (un nombre de Reynolds,. . . ), soit avec plusieurs paramètres (plusieurs nombres de Reynolds, . . . ). Les ROMs obtenus ont été utilisés pour contrôler la dispersion d'un polluant dans une cavité ventilée puis pour contrôler le champ de température dans une cavité entraînée différentiellement chauffée. Le contrôle est réalisé en temps quasi-réel et les résultats obtenus sont plutôt satisfaisants. Néanmoins, ces méthodes sont encore trop coûteuses en espace mémoire pour être aujourd'hui embarquées dans les boîtiers de contrôle utilisés dans le bâtiment. Une autre stratégie de contrôle, s'appuyant sur les contrôleurs actuels, a ainsi été développée. Celle-ci permet d'obtenir la température (ainsi que la vitesse) dans la zone d'occupation du bâtiment, en utilisant une décomposition des champs par POD et un algorithme d'optimisation de Levenberg-Marquardt. Elle a été validée sur une cavité différentiellement chauffée, puis appliquée sur une cavité ventilée 3D, proche d'un cas réel.
Style APA, Harvard, Vancouver, ISO itp.
Oferujemy zniżki na wszystkie plany premium dla autorów, których prace zostały uwzględnione w tematycznych zestawieniach literatury. Skontaktuj się z nami, aby uzyskać unikalny kod promocyjny!

Do bibliografii