Thèses sur le sujet « Modèle SEMK »

Pour voir les autres types de publications sur ce sujet consultez le lien suivant : Modèle SEMK.

Créez une référence correcte selon les styles APA, MLA, Chicago, Harvard et plusieurs autres

Choisissez une source :

Consultez les 50 meilleures thèses pour votre recherche sur le sujet « Modèle SEMK ».

À côté de chaque source dans la liste de références il y a un bouton « Ajouter à la bibliographie ». Cliquez sur ce bouton, et nous générerons automatiquement la référence bibliographique pour la source choisie selon votre style de citation préféré : APA, MLA, Harvard, Vancouver, Chicago, etc.

Vous pouvez aussi télécharger le texte intégral de la publication scolaire au format pdf et consulter son résumé en ligne lorsque ces informations sont inclues dans les métadonnées.

Parcourez les thèses sur diverses disciplines et organisez correctement votre bibliographie.

1

Chakkingal, Anoop. « Réglage de la sélectivité de la synthèse Fischer-Tropsch : aperçu de la modélisation microcinétique et de l'apprentissage automatique ». Electronic Thesis or Diss., Centrale Lille Institut, 2022. http://www.theses.fr/2022CLIL0015.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
Résumé :
En vue de promouvoir l’économie circulaire, de nombreux procédés chimiques sont actuellement réexaminés afin de développer des variantes plus durables. Cela a mené à une forte augmentation de production au cours des 60 dernières années, entraînant une production totale de 367 millions de tonnes en 2020.La méthodologie a ensuite été généralisée à l’aide d’apprentissage automatique non supervisé, ce qui a permis de dépasser les trois dimensions et de réduire le besoin d’intervention humaine. L’espace des descripteurs généré à partir de données microcinétiques (catalyseurs virtuels) est exploré en utilisant la méthode systématique du regroupement (clustering) et du classement (labelling) non supervisés. L’espace de la performance du catalyseur est regroupé en clusters et le nombre minimale de clusters est identifié. Chaque catalyseur virtuel (représenté par une certaine combinaison de descripteurs) est identifié du point de vue du cluster auquel il appartient. Il est ainsi possible d’obtenir l’étendue des valeurs des descripteurs dans le cluster ayant le meilleur rendement d’alcènes légers. Il est observé que les valeurs obtenues sont conformes à celles du catalyseur virtuel optimal identifié dans l’inspection visuelle précédente. On peut donc conclure qu’une méthode combinant la microcinétique et l’apprentissage automatique a été présentée pour le développement des catalyseurs et pour l’investigation détaillée de leurs propriétés, tout en diminuant le besoin d’intervention humaine.Finalement, la méthode d’apprentissage automatique a été étendue dans l’intention de pouvoir réaliser des prédictions de plusieurs sélectivités en se concentrant sur la production des alcènes légers à différentes conditions opérationnelles. Afin d’atteindre cet objectif, 4 modèles d’apprentissage automatique alternatifs ont été employés, i.e. la méthode lasso (lasso regression), la méthode des k plus proches voisins (k nearest neighbor regression ou KNN), la méthode de la machine à vecteurs de support (support vector machine regression ou SVR) et le réseau de neurones artificiels (Artificial Neural Network ou ANN). Les capacités de ces techniques sont évaluées par rapport à la reproduction du comportement linéaire de la conversion et la sélectivité en fonction des variables du procédé comme cela a été simulé par le modèle SEMK. Il est constaté que les modèles à base d’un réseau de neurones artificiels correspondent le plus aux résultats de référence du modèle SEMK. Une analyse supplémentaire utilisant la technique d’interprétation de la valeur SHAP a été appliquée aux modèles à base d’un réseau de neurones artificiels ayant la meilleure performance, en vue de mieux expliquer le fonctionnement des modèles.L’ensemble de l’étude a rapporté des connaissances essentielles, telles que les descripteurs de catalyseur optimales : les enthalpies de chimisorption atomique de l’hydrogène (QH ≈ 234 kJ/mol), du carbone (QC ≈ 622 kJ/mol) et de l’oxygène (QO ≈ 575 kJ/mol), pour la conception de catalyseurs ayant une sélectivité en alcènes légers élevée en utilisant un modèle SEMK mécaniste. De plus, l’étendue des conditions opérationnelles menant à la meilleure sélectivité en alcènes légers a été déterminée en adoptant plusieurs stratégies de modélisation (le concept des SEMK et l’apprentissage automatique). Il a été constaté que les effets de la température (580-620K) et la pression (1-2 bar) étaient les plus importants. Ensuite, une investigation est réalisée dans le but d’évaluer à quel point les résultats des modèles d’apprentissage automatique correspondent à ceux du modèle SEMK. Par exemple, une analyse préliminaire a pu être réalisée en utilisant un modèle d’apprentissage automatique pour l’analyse des données obtenues à l’aide d’expérimentation à haut débit. Ensuite, le modèle mécaniste a permis d’acquérir une compréhension chimique approfondie
Striving towards a circular economy has led to the re-investigation of many existing processes, with the target of developing more sustainable variants. In our present economy, plastics form an important and omnipresent material affecting our daily lives. They are inexpensive, durable, corrosion resistant, and light weight leading to their use in a wide variety of applications.Within the plastic chemical recycling scheme, Fischer-Tropsch synthesis (FTS) could play a key role as the syngas feedstock that is converted in it, can be generated via the gasification of the considered plastics. This syngas is then chemo-catalytically converted into hydrocarbons such as paraffins and light olefins. Typical FTS catalysts are based on supported cobalt or iron species.Among the mechanistic kinetic models, the comprehensive variant based on the Single Event MicroKinetics (SEMK) concept has been widely applied in the field of oligomerization, autoxidative curing, etc. and has proven to be a versatile tool to simulate Fischer-Tropsch synthesis. However, developing mechanistic models for every chemical engineering challenge is not always feasible due to their complexity and the in-depth knowledge required to build such models.A detailed evaluation on the potential of using machine learning approaches to match the performance of results obtained using the Single-Event MicroKinetic model was carried out. Initially, the focus was on a single dominant output scenario (methane selective catalyst). The current work thus shows that more widely applied techniques in data science can now be applied for systematic analysis and interpretation of kinetic data. Similar analysis using experimental data can also help experimenters in their preliminary analysis, to detect hidden trends in the data, and thus to identify importance features. After gaining confidence on the investigated interpretation techniques, for the FTS reaction with single dominant output, a similar investigation on the potential of iron based catalysts with enhanced light olefin selectivity is carried out next
2

AMMOUCHE, ABDELHALIM. « Intégration de modèles physiques de composants semi-conducteurs dans un modèle électromagnétique ». Paris 10, 1999. http://www.theses.fr/1999PA100076.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
Résumé :
L'evolution technologique considerable que connaissent les systemes de telecommunications depuis quelques annees, a permis l'emergence de systemes a tres fort degre d'integration fonctionnant a des frequences de plus en plus elevee. La consequence de cette miniaturisation est l'apparition d'effets qui nuisent aux performances des composants. Ces effets sont essentiellement dus a des phenomenes de couplages dus a des radiations electromagnetiques, et des excitations par ondes de surfaces. Dans la plupart des outils de conceptions, les elements de circuits localises sont caracterises par des modeles analytiques ou par un schema equivalent. Cette approche ne peut etre utilisee dans la simulation d'un transistor haute frequence que pour des composants a faibles performances. Pour les transistors de type hemt en materiaux iii-v, le moyen permettant d'obtenir un modele precis est d'utiliser un modele physique base sur la resolution des equations de transport electronique. Il n'existe pas d'outil permettant de concevoir et de modeliser un circuit micro-onde a elements actif integre en representant convenablement le composant physique du composant micro-onde. C'est dans ce cadre que s'inscrit ce travail de these. L'objectif est de demontrer la possibilite de coupler un modele rapide de resolution des equations de transport dans un semi-conducteur en utilisant la methode quasi-bidimensionnelle (q2d) avec un simulateur electromagnetique 3d base sur la methode des differences finies dans le domaine temporel (fdtd).
3

Lorenz, David [Verfasser], et Christian [Akademischer Betreuer] Mair. « Contractions of English semi-modals : the emancipating effect of frequency = Kontraktionen englischer Semi-Modale : lexikalische Emanzipation als Frequenzeffekt ». Freiburg : Universität, 2013. http://d-nb.info/1122646666/34.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
4

Lerat, Julien. « Quels apports hydrologiques pour les modèles hydrauliques ? : vers un modèle intégré de simulation des crues ». Phd thesis, Université Pierre et Marie Curie - Paris VI, 2009. http://tel.archives-ouvertes.fr/tel-00392240.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
Résumé :
Les modèles hydrauliques sont couramment utilisés pour l'aménagement des rivières et la prévention des dommages liés aux inondations. Ces modèles calculent les hauteurs d'eau et débits sur un tronçon de rivière à partir de sa géométrie et des conditions aux limites du système: débit à l'amont du tronçon, débits d'apports latéraux provenant du bassin intermédiaire et hauteurs d'eau à l'aval. Lorsque le tronçon est long, les apports latéraux deviennent conséquents tout en demeurant rarement mesurés car provenant d'affluents secondaires. L'évaluation de ces apports constitue alors une étape essentielle dans la simulation des crues sous peine de fortes sous ou surestimations des variables hydrauliques. Cette thèse a pour objectif principal d'identifier une méthode de complexité minimale permettant de reconstituer ces apports. Nos travaux s'appuient sur un échantillon de 50 tronçons de rivière situés en France et aux Etats-Unis sur lesquels les apports latéraux ont été estimés à l'aide d'un modèle hydrologique semi-distribué connecté avec un modèle hydraulique simplifié.

Une méthode automatisée de découpage du bassin intermédiaire en sous-bassins a d'abord été élaborée afin de faciliter la construction du modèle hydrologique sur les 50 tronçons de rivière. Des tests de sensibilité ont été menés sur le nombre de sous-bassins, la nature uniforme ou distribuée des entrées de pluie et des paramètres du modèle hydrologique. Une configuration à 4 sous-bassins présentant des pluies et des paramètres uniformes s'est avérée la plus performante sur l'ensemble de l'échantillon.

Enfin, une méthode alternative de calcul des apports latéraux a été proposée utilisant une transposition du débit mesuré à l'amont et une combinaison avec le modèle hydrologique.
5

Pertsinidou, Christina Elisavet. « Stochastic models for the estimation of the seismic hazard ». Thesis, Compiègne, 2017. http://www.theses.fr/2017COMP2342.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
Résumé :
Dans le premier chapitre, la notion d'évaluation des risques sismiques est définie et les caractéristiques sismotectoniques de la région d'étude sont brièvement présentés. Un examen rigoureux des modèles stochastiques, appliqués au domaine de la sismologie est fourni. Dans le chapitre 2, différents modèles semi-Markoviens sont développés pour étudier la sismicité des îles Ioniennes centrales ainsi que le Nord de la mer Egée (Grèce). Les quantités telles que le noyau semi-Markovien et les probabilités de destination sont évaluées, en considérant que les temps de séjour suivent les distributions géométrique, discrète Weibull et Pareto. Des résultats utiles sont obtenus pour l'estimation de la sismicité. Dans le troisième chapitre un nouvel algorithme de Viterbi pour les modèles semi-Markoviens cachés est construit, dont la complexité est une fonction linéaire du nombre d'observations et une fonction quadratique du nombre d'états cachés, la plus basse existante dans la littérature. Une extension de ce nouvel algorithme est développée pour le cas où une observation dépend de l'état caché correspondant, mais aussi de l'observation précédente (cas SM1-M1). Dans le chapitre 4 les modèles semi-Markoviens cachés sont appliquées pour étudier la sismicité du Nord et du Sud de la mer Égée. La séquence d'observation est constituée des magnitudes et des positions d’un tremblement de terre et le nouvel algorithme de Viterbi est mis en œuvre afin de décoder les niveaux des tensions cachés qui sont responsables pour la sismogenèse. Les phases précurseurs (variations des tensions cachées) ont été détectées en avertissant qu’un tremblement de terre pourrait se produire. Ce résultat est vérifié pour 70 sur 88 cas (le score optimal). Les temps de séjour du processus caché étaient supposés suivre les distributions Poisson, logarithmique ou binomiale négative, tandis que les niveaux de tensions cachés ont été classés en 2, 3 ou 4 états. Les modèles de Markov caché ont également été adaptés sans présenter des résultats intéressants concernant les phases précurseurs. Dans le chapitre 5 un algorithme de Viterbi généralisé pour les modèles semi-Markoviens cachés, est construit dans le sens que les transitions au même état caché sont autorisées et peuvent également être décodées. De plus, une extension de cet algorithme généralisé dans le contexte SM1-M1 est présentée. Dans le chapitre 6 nous modifions de manière convenable le modèle Cramér-Lundberg y compris des sinistres négatifs et positifs, afin de décrire l'évolution avec le temps des changements de contraintes de Coulomb (valeurs ΔCFF) calculées pour sept épicentres (M ≥ 6) du Nord de la mer Egée. Formules pour les probabilités de ruine sont définies sous une forme générale. Corollaires sont également formulés pour la distribution exponentielle et Pareto. L'objectif est de mettre en lumière la question suivante qui pose la problématique dans la Sismologie: Au cours d'une année pourquoi un tremblement de terre s’est produit dans une position précise et pas dans une autre position, aux régions sismotectoniquement homogènes ayant valeurs ΔCFF positives. Les résultats montrent que les nouvelles formules de probabilité peuvent contribuer à répondre au problème susmentionné
In the first chapter the definition of the seismic hazard assessment is provided, the seismotectonic features of the study areas are briefly presented and the already existing mathematical models applied in the field of Seismology are thoroughly reviewed. In chapter 2, different semi-Markov models are developed for studying the seismicity of the areas of the central Ionian Islands and the North Aegean Sea (Greece). Quantities such as the kernel and the destination probabilities are evaluated, considering geometric, discrete-Weibull and Pareto distributed sojourn times. Useful results are obtained for forecasting purposes. In the third chapter a new Viterbi algorithm for hidden semi-Markov models is developed, whose complexity is a linear function of the number of observations and a quadratic function of the number of hidden states, the lowest existing in the literature. Furthermore, an extension of this new algorithm is introduced for the case that an observation depends on the corresponding hidden state but also on the previous observation (SM1-M1 case). In chapter 4, different hidden semi-Markov models (HSMMs) are applied for the study of the North and South Aegean Sea. The earthquake magnitudes and locations comprise the observation sequence and the new Viterbi algorithm is implemented in order to decode the hidden stress field associated with seismogenesis. Precursory phases (variations of the hidden stress field) were detected warning for an anticipated earthquake occurrence for 70 out of 88 cases (the optimal model’s score). The sojourn times of the hidden process were assumed to follow Poisson, logarithmic or negative binomial distributions, whereas the hidden stress levels were classified into 2, 3 or 4 states. HMMs were also adapted without presenting significant results as for the precursory phases. In chapter 5 a generalized Viterbi algorithm for HSMMs is constructed in the sense that now transitions to the same hidden state are allowed and can also be decoded. Furthermore, an extension of this generalized algorithm in the SM1-M1 context is given. In chapter 6 we modify adequately the Cramér-Lundberg model considering negative and positive claims, in order to describe the evolution in time of the Coulomb failure function changes (ΔCFF values) computed at the locations of seven strong (M ≥ 6) earthquakes of the North Aegean Sea. Ruin probability formulas are derived and proved in a general form. Corollaries are also formulated for the exponential and the Pareto distribution. The aim is to shed light to the following problem posed by the seismologists: During a specific year why did an earthquake occur at a specific location and not at another location in seismotectonically homogeneous areas with positive ΔCFF values (stress enhanced areas). The results demonstrate that the new probability formulas can contribute in answering the aforementioned question
6

Liquet, benoit. « Sélection de modèles semi-paramétriques ». Phd thesis, Université Victor Segalen - Bordeaux II, 2002. http://tel.archives-ouvertes.fr/tel-00002430.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
Résumé :
Cette thèse développe des méthodes de sélection de modèles pour des applications en Biostatistique et plus particulièrement dans le domaine médical. Dans la première partie, nous proposons une méthode et un programme de correction du niveau de signification d'un test lorsque plusieurs codages d'une variable explicative sont essayés. Ce travail est réalisé dans le cadre d'une régression logistique et appliqué à des données sur la relation entre cholestérol et démence. La deuxième partie de la thèse est consacrée au développement d'un critère d'information général permettant de sélectionner un estimateur parmi une famille d'estimateurs semi-paramétriques. Le critère que nous proposons est basé sur l'estimation par bootstrap de l'information de Kullback-Leibler. Nous appliquons ensuite ce critère à la modélisation de l'effet de l'amiante sur le risque de mésothéliome et nous comparons cette approche à la méthode de sélection de Birgé-Massart. Enfin, la troisième partie présente un critère de sélection en présence des données incomplètes. Le critère proposé est une extension du critère developpé dans la deuxième partie. Ce critère, construit sur l'espérance de la log-vraisemblance observée, permet en particulier de sélectionner le paramètre de lissage dans l'estimation lisse de la fonction de risque et de choisir entre des modèles stratifiés et des modèles à risques proportionnels. Nous avons notamment appliqué cette méthode à la modélisation de l'effet du sexe et du niveau d'éducation sur le risque de démence.
7

Liquet, Benoit. « Sélection de modèles semi-paramétriques ». Bordeaux 2, 2002. http://www.theses.fr/2002BOR20958.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
Résumé :
Cette thèse développe des méthodes de sélection de modèles pour l'application en Bio-stastistique. Dans la première partie, nous proposons une méthode et un programme de correction du niveau de signification d'un test lorsque plusieurs codages d'une variable explicative sont essayés. La deuxième partie de la thèse est consacrée au développement d'un critère d'information général permettant de sélectionner un estimateur parmi une famille d'estimateurs semi-paramétriques. Le critère que nous proposons est basé sur l'estimation par bootstrap de l'information de Kullback-Leibler. Enfin, la troisième partie présente un critère de sélection en présence des données incomplètes. Ce critère, construit sur l'espérance de la log-vraisemblance observée, permet en particulier de sélectionner le paramètre de lissage dans l'estimation lisse de la fonction de risque et de choisir entre des modèles stratifiés et des modèles à risques proportionnels.
8

Vandewalle, Vincent. « Estimation et sélection en classification semi-supervisée ». Phd thesis, Université des Sciences et Technologie de Lille - Lille I, 2009. http://tel.archives-ouvertes.fr/tel-00447141.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
Résumé :
Le sujet de cette thèse est la classification semi-supervisée qui est considérée d'un point de vue décisionnel. Nous nous intéressons à la question de choix de modèles dans ce contexte où les modèles sont estimés en utilisant conjointement des données étiquetées et des données non étiquetées plus nombreuses. Nous concentrons notre recherche sur les modèles génératifs où la classification semi-supervisée s'envisage sans difficulté, contrairement au cadre prédictif qui nécessite des hypothèses supplémentaires peu naturelles. Après avoir dressé un état de l'art de la classification semi-supervisée, nous décrivons l'estimation des paramètres d'un modèle de classification à l'aide de données étiquetées et non étiquetées par l'algorithme EM. Nos contributions sur la sélection de modèles font l'objet des deux chapitres suivants. Au chapitre 3, nous présentons un test statistique où les données non étiquetées sont utilisées pour mettre à l'épreuve le modèle utilisé. Au chapitre 4 nous présentons un critère de sélection de modèles AIC_cond, dérivé du critère AIC d'un point de vue prédictif. Nous prouvons la convergence asymptotique de ce critère particulièrement bien adapté au contexte semi-supervisé et ses bonnes performances pratiques comparé à la validation croisée et à d'autres critères de vraisemblance pénalisée. Une deuxième partie de la thèse, sans rapport direct avec le contexte semi-supervisé, présente des modèles multinomiaux pour la classification sur variables qualitatives. Nous avons conçu ces modèles pour répondre à des limitations des modèles multinomiaux parcimonieux proposés dans le logiciel MIXMOD. À cette occasion, nous proposons un critère type BIC qui prend en compte de manière spécifique la complexité de ces modèles multinomiaux contraints.
9

Roget-Vial, Céline. « deux contributions à l'étude semi-paramétrique d'un modèle de régression ». Phd thesis, Université Rennes 1, 2003. http://tel.archives-ouvertes.fr/tel-00008730.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
Résumé :
Cette thèse s'intéresse à deux modèles de régression semi-paramétrique permettant de contourner le problème classique du "fléau de la dimension" inhérent aux approches non-paramétriques usuelles. La première partie du travail concerne l'étude d'un modèle de régression dit partiellement linéaire ; le but est d'identifier les régresseurs qui composent la partie non-linéaire de la fonction de régression ainsi que d'estimer tous les paramètres du modèle. Pour ce faire nous définissons des quantités caractéristiques du modèle qui mesurent la linéarité des régresseurs puis nous développons un test du nombre de composantes non-linéaires basé sur cette mesure. La seconde partie porte sur l'étude d'un modèle dit à direction révélatrice unique et consiste à estimer, via des propriétés géométriques, l'axe du modèle et d'en déduire un test convergent et puissant sous une suite d'alternatives locales.
10

Barouni, Foued. « Modèle dynamique de pilotage d'un système multiagents semi-compétitifs ». Thesis, Université Laval, 2007. http://www.theses.ulaval.ca/2007/24398/24398.pdf.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
11

Khadraoui, Lobna. « Sélection de copules archimédiennes dans un modèle semi-paramétrique ». Master's thesis, Université Laval, 2018. http://hdl.handle.net/20.500.11794/30251.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
Résumé :
Ce travail considère un modèle linéaire semi-paramétrique dont les erreurs sont modélisées par une copule choisie parmi la famille archimédienne ou bien la copule normale. La modélisation des erreurs par une copule apporte une flexibilité et permet de caractériser la structure de dépendance d’une manière simple et efficace. La simplicité réside dans le fait qu’un seul paramètre α contrôle le degré de dépendance présent dans les données. L’efficacité réside dans le fait que ce modèle semi-paramétrique permet de lever des hypothèses standards souvent rencontrées en statistique appliquée à savoir la normalité et l’indépendance. Après une mise en œuvre du modèle basée sur une copule nous avons proposé une étude théorique du comportement asymptotique de l’estimateur du paramètre de dépendance α en montrant sa convergence et sa normalité asymptotique sous des hypothèses classiques de régularité. L’estimation des paramètres du modèle a été réalisée en maximisant une pseudo-vraisemblance. La sélection de la meilleure copule pour un jeu de données a été faite à l’aide du critère d’Akaike. Une comparaison avec le critère de la validation croisée a été proposée également. Enfin, une étude numérique sur des jeux de données simulés et réels a été proposée dans la sélection.
This work considers a semi-parametric linear model with error terms modeled by a copula chosen from the Archimedean family or the normal copula. The modeling of errors by a copula provides flexibility and makes it possible to characterize the dependency structure in a simple and effective manner. The simplicity lies in the fact that a single parameter α controls the degree of dependency present in the data. The efficiency is in the fact that this semi-parametric model weakens standard assumptions often encountered in applied statistics namely normality and independence. After an implementation of the model based on a copula we proposed a theoretical study on the asymptotic behavior of the estimator of the dependence parameter α by showing its consistency and its asymptotic normality under classical assumptions of regularity. Estimation of the model parameters is performed by maximizing a pseudo-likelihood. The selection of the best copula that fits the data for each case is based on the Akaike selection criterion. A comparison with the criterion of cross-validation is presented as well. Finally, a numerical study on simulated and real data sets is proposed.
12

Votsi, Irène. « Evaluation des risques sismiques par des modèles markoviens cachés et semi-markoviens cachés et de l'estimation de la statistique ». Thesis, Compiègne, 2013. http://www.theses.fr/2013COMP2058.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
Résumé :
Le premier chapitre présente les axes principaux de recherche ainsi que les problèmes traités dans cette thèse. Plus précisément, il expose une synthèse sur le sujet, en y donnant les propriétés essentielles pour la bonne compréhension de cette étude, accompagnée des références bibliographiques les plus importantes. Il présente également les motivations de ce travail en précisant les contributions originales dans ce domaine. Le deuxième chapitre est composé d’une recherche originale sur l’estimation du risque sismique, dans la zone du nord de la mer Egée (Grèce), en faisant usage de la théorie des processus semi-markoviens à temps continue. Il propose des estimateurs des mesures importantes qui caractérisent les processus semi-markoviens, et fournit une modélisation dela prévision de l’instant de réalisation d’un séisme fort ainsi que la probabilité et la grandeur qui lui sont associées. Les chapitres 3 et 4 comprennent une première tentative de modélisation du processus de génération des séismes au moyen de l’application d’un temps discret des modèles cachés markoviens et semi-markoviens, respectivement. Une méthode d’estimation non paramétrique est appliquée, qui permet de révéler des caractéristiques fondamentales du processus de génération des séismes, difficiles à détecter autrement. Des quantités importantes concernant les niveaux des tensions sont estimées au moyen des modèles proposés. Le chapitre 5 décrit les résultats originaux du présent travail à la théorie des processus stochastiques, c’est- à-dire l’étude et l’estimation du « Intensité du temps d’entrée en temps discret (DTIHT) » pour la première fois dans des chaînes semi-markoviennes et des chaînes de renouvellement markoviennes cachées. Une relation est proposée pour le calcul du DTIHT et un nouvel estimateur est présenté dans chacun de ces cas. De plus, les propriétés asymptotiques des estimateurs proposés sont obtenues, à savoir, la convergence et la normalité asymptotique. Le chapitre 6 procède ensuite à une étude de comparaison entre le modèle markovien caché et le modèle semi-markovien caché dans un milieu markovien et semi-markovien en vue de rechercher d’éventuelles différences dans leur comportement stochastique, déterminé à partir de la matrice de transition de la chaîne de Markov (modèle markovien caché) et de la matrice de transition de la chaîne de Markov immergée (modèle semi-markovien caché). Les résultats originaux concernent le cas général où les distributions sont considérées comme distributions des temps de séjour ainsi que le cas particulier des modèles qui sont applique´s dans les chapitres précédents où les temps de séjour sont estimés de manière non-paramétrique. L’importance de ces différences est spécifiée à l’aide du calcul de la valeur moyenne et de la variance du nombre de sauts de la chaîne de Markov (modèle markovien caché) ou de la chaîne de Markov immergée (modèle semi-markovien caché) pour arriver dans un état donné, pour la première fois. Enfin, le chapitre 7 donne des conclusions générales en soulignant les points les plus marquants et des perspectives pour développements futurs
The first chapter describes the definition of the subject under study, the current state of science in this area and the objectives. In the second chapter, continuous-time semi-Markov models are studied and applied in order to contribute to seismic hazard assessment in Northern Aegean Sea (Greece). Expressions for different important indicators of the semi- Markov process are obtained, providing forecasting results about the time, the space and the magnitude of the ensuing strong earthquake. Chapters 3 and 4 describe a first attempt to model earthquake occurrence by means of discrete-time hidden Markov models (HMMs) and hidden semi-Markov models (HSMMs), respectively. A nonparametric estimation method is followed by means of which, insights into features of the earthquake process are provided which are hard to detect otherwise. Important indicators concerning the levels of the stress field are estimated by means of the suggested HMM and HSMM. Chapter 5 includes our main contribution to the theory of stochastic processes, the investigation and the estimation of the discrete-time intensity of the hitting time (DTIHT) for the first time referring to semi-Markov chains (SMCs) and hidden Markov renewal chains (HMRCs). A simple formula is presented for the evaluation of the DTIHT along with its statistical estimator for both SMCs and HMRCs. In addition, the asymptotic properties of the estimators are proved, including strong consistency and asymptotic normality. In chapter 6, a comparison between HMMs and HSMMs in a Markov and a semi-Markov framework is given in order to highlight possible differences in their stochastic behavior partially governed by their transition probability matrices. Basic results are presented in the general case where specific distributions are assumed for sojourn times as well as in the special case concerning the models applied in the previous chapters, where the sojourn time distributions are estimated non-parametrically. The impact of the differences is observed through the calculation of the mean value and the variance of the number of steps that the Markov chain (HMM case) and the EMC (HSMM case) need to make for visiting for the first time a particular state. Finally, Chapter 7 presents concluding remarks, perspectives and future work
13

Julius, Elroy Peter. « Guaranteed delivery of multimodal semi-synchronous IP-based communication ». Thesis, University of the Western Cape, 2005. http://etd.uwc.ac.za/index.php?module=etd&amp.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
Résumé :

This thesis explored how hearing and deaf users are brought together into one communication space where interaction between them is a semi-synchronous form of message exchange. The focus of this thesis was the means by which message delivery between two e

14

Orecchia, Giulio. « A monodromy criterion for existence of Néron models and a result on semi-factoriality ». Thesis, Bordeaux, 2018. http://www.theses.fr/2018BORD0017/document.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
Résumé :
Cette thèse est divisée en deux parties. Dans la première partie, nous introduisons une nouvelle condition, appelée additivité torique, sur une famille de variétés abéliennes qui dégénèrent en un schéma semi-abelien au-dessus d’un diviseur à croisements normaux. La condition ne dépend que du module de Tate T l A(K sep ) de la fibre générique. Nous montrons que l’additivité torique est une condition suffisante pour l’existence d’un modèle de Néron, si la base est un schéma de caractéristique nulle. Dans le cas de la jacobienne d’une courbe lisse à réduction semi-stable, on obtient le même résultat sans aucune hypothèse sur la caractéristique de base; et nous montrons que l’additivité torique est aussi nécessaire pour l’existence d’un modèle de Néron, si la base est un schéma de caractéristique nulle. Dans la deuxième partie, on considère le cas d’une famille de courbes nodales sur un anneau de valuation discrète. On donne une condition combinatoire sur le graphe dual de la fibre spéciale, appelée semi-factorialité, qui équivaut au fait que tous les faisceaux inversibles sur la fibre générique s’étendent en des faisceaux inversibles sur l’espace total de la courbe. Il est démontré par la suite que cette condition est automatiquement satisfaite après un éclatement centré aux points fermés non-réguliers de la famille de courbes. On applique le résultat ci-dessus pour généraliser un théorème de Raynaud sur le modèle de Néron des jacobiennes de courbes lisses, au cas des courbes nodales
This thesis is subdivided in two parts. In the first part, we introduce a new condition, called toric-additivity, on a family of abelian varieties degenerating to a semi-abelian scheme over a normal crossing divisor. The condition depends only on the Tate module TlA(Ksep) of the generic fibre, for a prime l invertible on the base. We show that toric-additivity is a sufficient condition for the existence of a Néron model if the base is a Q-scheme. In the case of the jacobian of a smooth curve with semi-stable reduction, we obtain the same result without assumptions on the base characteristic; and we show that toric-additivity is also necessary for the existence of a Néron model, when the base is a Q-scheme. In the second part, we consider the case of a family of nodal curves over a discrete valuation ring, having split singularities. We say that such a family is semi factorial if every line bundle on the generic fibre extends to a line bundle on the total space. We give a necessary and sufficient condition for semi- factoriality, in terms of combinatorics of the dual graph of the special fibre. In particular, we show that performing one blow-up with center the non regular closed points yields a semi-factorial model of the generic fibre. As an application, we extend the result of Raynaud relating Néron models of smooth curves and Picard functors of their regular models to the case of nodal curves having a semi-factorial model
15

Nguyen, ThiMongNgoc. « Estimation récursive pour des modèles semi-paramétriques ». Thesis, Bordeaux 1, 2010. http://www.theses.fr/2010BOR14107/document.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
16

Nguyen, Thi Mong Ngoc. « Estimation récursive pour les modèles semi-paramétriques ». Phd thesis, Université Sciences et Technologies - Bordeaux I, 2010. http://tel.archives-ouvertes.fr/tel-00938607.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
Résumé :
Dans cette th ese, nous nous int eressons au mod ele semi-param etrique de r egression de la forme y = f( \theta'x; \epsilon), lorsque x \in R^p et y\in R. Notre objectif est d' etudier des probl emes d'estimation des param etres \theta et f de ce mod ele avec des m ethodes r ecursives. Dans la premi ere partie, l'approche que nous d eveloppons est fond ee sur une m ethode introduite par Li (1991), appel ee Sliced Inverse Regression (SIR). Nous proposons des m ethodes SIR r ecursives pour estimer le param etre . Dans le cas particulier o u l'on consid ere le nombre de tranches egal a 2, il est possible d'obtenir une expression analytique de l'estimateur de la direction de . Nous proposons une forme r ecursive pour cet estimateur, ainsi qu'une forme r ecursive de l'estimateur de la matrice d'int er^et. Ensuite, nous proposons une nouvelle approche appell ee \SIRoneslice" (r ecursive ou non r ecursive) de la m ethode SIR bas ee sur l'utilisation de l'information contenue dans une seule tranche optimale (qu'il faudra choisir parmi un nombre quelconque de tranches). Nous proposons egalement un crit ere \bootstrap na f" pour le choix du nombre de tranches. Des r esultats asymptotiques sont donn es et une etude sur des simulations d emontre le bon comportement num erique des approches r ecursives propos ees et l'avantage principal de l'utilisation la version r ecursive de SIR et de SIRoneslice du point de vue des temps de calcul. Dans la second partie, nous travaillons sur des donn ees de valvom etrie mesur ees sur des bivalves. Sur ces donn ees, nous comparons le comportement num erique de trois estimateurs non param etrique de la fonction de r egression : celui de Nadaraya-Watson, celui de Nadaraya-Watson r ecursif et celui de R ev esz qui est lui aussi r ecursif. Dans la derni ere partie de cette th ese, nous proposons une m ethode permettant de combiner l'estimation r ecursive de la fonction de lien f par l'estimateur de Nadaraya- Watson r ecursif et l'estimation du param etre via l'estimateur SIR r ecursif. Nous etablissons une loi des grands nombres ainsi qu'un th eor eme de limite centrale. Nous illustrons ces r esultats th eoriques par des simulations montrant le bon comportement num erique de la m ethode d'estimation propos ee.
17

Heutte, Natacha. « Modèles semi-markoviens et données de survie ». Paris 5, 2001. http://www.theses.fr/2001PA05S013.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
Résumé :
Nous nous intéressons à la modélisation de la durée de survie de patients sous certaines conditions en même temps que de la qualité de vie, c'est à dire à évaluer l'impact sur la durée de survie et la qualité de vie de facteurs endogènes tels que les traits génétiques et les dosages biologiques et de facteurs exogènes comme le traitement médical et l'environnement. Il s'agit de tester la présence de tels effets et, dans le cas où elle a été détectée, d'évaluer leur importance. Cette modélisation doit permettre une inférence statistique même dans le cas où il y a des censures à droite. A cet effet, nous avons développé des modèles fondés sur les processus semi-markoviens. Il s'agit de modèles multi-états, qui donnent une représentation réaliste du processus vital d'un malade en cours de traitement. Celui-ci passe par divers états et y séjourne pendant des durées qui peuvent dépendre de différents facteurs. Ils permettent de se libérer de l'hypothèse trop restictive des processus de Markov. Ces modèles peuvent être appliqués à d'autres situations que celle de la survie et de la qualité de vie comme la fiabilité ou la démographie. Un modèle semi-paramétrique à temps discret a été développé. Il est fondé sur le modèle de Cox. Deux modèles en temps continu ont été étudiés. Le premier, fondé sur les risques compétitifs est plus restrictif que le second qui autorise une liaison entre les durées vers les différents issues à partir d'un état donné, sans toutefois l'imposer. Ces modèles sont appliqués à l'étude du SIDA et à la qualité de vie dans un essai thérapeutique en cancérologie
Models for survival data including a categorized quality of life index is proposed. The model is intended to take into account the effect of endogenous and exogenous factors both on the duration of survival and the quality of life. Endogenous factors are for example biological measurements or genetical specifications, while exogenous ones are environmental factors. The proposed models are semi-parametric and based on semi-markov processes. Time may be continuous or discrete depending on the type of the data. The general framework of all preexisting models is sketched. Estimators are derived, as well as their asymptotic properties, and algorithms and programs are given to compute them explicitly. They are exemplified on real data on AIDS and cancer patients, and on simulations. Those models are presented in a biomedical context but can be useful in any field where durations together with multistate processes are involved
18

Biessy, Guillaume. « Semi-Markov modeling of the loss of autonomy among elderly people : application to long-term care insurance ». Thesis, Université Paris-Saclay (ComUE), 2016. http://www.theses.fr/2016SACLE048/document.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
Résumé :
Défi majeur aux sociétés modernes, la perte d’autonomie chez les personnes âgées, connue également sous le nom de dépendance se définit comme un état d’incapacité à effectuer seul tout ou partie des Actes de la Vie Quotidienne (AVQ). Elle apparaît dans la grande majorité des cas sous l’effet des pathologies chroniques liées au vieillissement. Devant les coûts importants liés à cet état, les assureurs privés ont développé une offre destinée à compléter l’aide publique. Pour quantifier le risque, un modèle multi-états est utilisé et se pose alors la question de l’estimation des probabilités de transition entre les états (l’autonomie, le décès ainsi qu’un ou plusieurs niveaux de dépendance). Sous l’hypothèse de Markov, ces dernières dépendent uniquement de l’état actuel, une hypothèse trop restrictive pour rendre compte de la complexité du processus de dépendance. Dans le cadre semi-markovien plus général, ces probabilités dépendent également du temps passé dans l’état actuel. Au cours de cette thèse, nous étudions la nécessité d’une modélisation semi-markovienne du processus. Nous mettons en évidence l’impact du temps passé en dépendance sur les probabilités de décès. Nous montrons par ailleurs que la prise en compte de la diversité induite par les pathologies permet d’améliorer sensiblement l’adéquation du modèle proposé aux données étudiées. Plus encore, nous établissons que la forme particulière de la probabilité de décès en fonction du temps passé en dépendance peut être expliquée par le mélange des groupes de pathologies qui constituent la population des individus dépendants
A sizable challenge to modern societies, Long-Term Care (LTC) in elderly people may be defined as a state of incapacity to perform autonomously part of the Activities of Daily Living (ADL). In most cases, long-term care is caused by pathologies linked to aging. To cope with the sizeable costs linked to this state, private insurers have developed products in top of the public aid. To quantify the long-term care risk, multi-state models are used for which transition probabilities betweenstates (autononomy, death and one to several levels of LTC) need to be inferred. Under the Markov assumption, those probabilities only depend on the current state, this assumption being too restrictive in regards of the complexity of the underlying risk. In a semi-Markov framework, those probabilities also depends on the time spent in the current state. In this thesis, we emphasis the need for the semi-Markov modeling. We demonstrate the impact of time spent in LTC on death probabilities. Besides, we exhibit that taking into account the diversity induced by pathologies leads to sizable improvementsin the fit of the model to experience data. Furthermore, we highlight that the peculiar shape taken by death probabilities as a function of time spent in LTC may be explained by the mixture of pathology groups among the disabled population
19

Thébault, Cyril. « Quels apports d'une approche multi-modèle semi-distribuée pour la prévision des débits ? » Electronic Thesis or Diss., Sorbonne université, 2023. http://www.theses.fr/2023SORUS649.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
Résumé :
La prévision des débits dans les cours d’eau est nécessaire pour répondre à divers objectifs, allant de la sécurité des populations dans le cas des inondations, à la gestion de la ressource en eau pour de multiples usages, importante particulièrement en période d’étiage. La production hydroélectrique est également étroitement liée aux débits de nos rivières, comme c’est le cas sur le bassin versant du Rhône où la Compagnie nationale du Rhône (CNR) gère des unités de production hydroélectrique sur tout le cours principal du fleuve. Pour optimiser sa production, la CNR s’appuie en partie sur des modèles hydrologiques, qui transforment l’information météorologique en estimation des débits en rivière. Les modèles hydrologiques existants revêtent des spécificités, dans leur façon de représenter le bassin versant (c’est-à-dire leur structure mathématique) ou leurs modalités d’application, liées aux objectifs ou contextes hydroclimatiques pour lesquels ils ont été conçus. Cela conduit à l’existence d’une très large gamme de modèles hydrologiques, pouvant représenter une variété de relations pluie-débit et fonctionnant à différentes échelles spatiales, avec souvent la difficulté de choisir la structure et la discrétisation spatiale les mieux adaptées aux objectifs visés. Cela reflète également les nombreuses incertitudes affectant la chaîne de modélisation, dont la quantification revêt de forts enjeux pour la gestion opérationnelle et l’aide à la décision. Dans ce contexte, l’objectif de la thèse a été d’évaluer les apports de l’approche multi-modèle dans le cadre d’une modélisation hydrologique semi-distribuée pour la prévision des débits. Pour ce faire, un large échantillon de 643 bassins versants français, regroupant des données hydroclimatiques au pas de temps horaire, a été constitué, et 14 structures de modèles hydrologiques ont été utilisées selon différentes stratégies de calage et pour différentes configurations spatiales. Dans un premier temps, nous avons mis en place le cadre de modélisation hydrologique pour répondre à nos objectifs. Nous avons ensuite testé l’approche multi-modèle semi-distribuée en contexte de simulation, puis dans un objectif de prévision des débits en traitant plus particulièrement le cas des affluents du Rhône. Les résultats montrent que la stratégie d’un modèle unique pour un grand nombre de bassins présente des limites qui peuvent être en partie dépassées par différentes stratégies multi-modèles. Ainsi, l’utilisation de différents modèles hydrologiques selon les bassins versants engendre une amélioration significative de la simulation des débits sur le territoire français. Des performances encore améliorées peuvent être obtenues par une approche multi-modèle plus complexe, en combinant les sorties des modèles hydrologiques. Bien que l’intérêt de la semi-distribution soit difficile à déterminer a priori en contexte de simulation, elle montre des résultats encourageants sur les bassins influencés ou présentant des phénomènes nivaux, tels que sur les cours d’eau alpins du Rhône par exemple. Enfin, la modélisation multi-modèle semi-distribuée améliore également la prévision, que ce soit dans un contexte idéalisé de pluies futures connues ou plus réaliste d’utilisation d’archives de pluies d’ensemble prévues. Bien qu’engendrant des prévisions plus fiables, le chaînage entre les prévisions météorologiques d’ensemble et le multi-modèle probabiliste (créant ainsi un super-ensemble hydrologique) nécessite une phase d’interprétation pour être exploitable d’un point de vue opérationnel
Streamflow forecasting is needed to meet various objectives, from the safety of populations in the case of floods, to the management of water resources for multiple uses, particularly important during low flow periods. Hydroelectric production is also closely linked to streamflow, as is the case on the Rhône catchment, where the Compagnie Nationale du Rhône (CNR) manages hydroelectric production units along the main course of the river. To optimize its production, CNR relies in part on hydrological models, which transform meteorological information into streamflow estimates. Hydrological models have their own specificities, in terms of the way they represent the catchment (i.e. their mathematical structure) or the way they are applied, linked to the objectives or hydro-climatic contexts for which they were designed. It leads to a very wide range of hydrological models, representing various rainfall-runoff relationships and operating at different spatial scales, often making it difficult for users to choose the structure and spatial discretization best suited to their objectives. This also reflects the numerous uncertainties affecting the modelling chain, the quantification of which is of major importance for operational management and decision support. In this context, the aim of this PhD is to evaluate the contribution of a semi-distributed multi-model approach for streamflow forecasting. To this end, a large sample of 643 French catchments, with hydro-climatic data at hourly time steps, was compiled, and 14 hydrological model structures were used according to different calibration strategies and for different spatial configurations. First, we set up the hydrological modelling framework to meet our objectives. After that, we tested the semi-distributed multi-model approach in a simulation context, and then for streamflow forecasting purposes, focusing on the case of Rhône tributaries. The results show that the strategy of a single model for a large number of catchments has limitations that can be partly overcome by multi-model strategies. In this way, the use of different hydrological models for different catchment areas leads to an improvement in streamflow simulation over the French territory. Even better performance can be achieved by a more complex multi-model approach, combining the outputs of hydrological models. Although the value of semi-distribution is difficult to determine a priori, it is nevertheless showing encouraging results over several catchments. Finally, semi-distributed multi-model modelling also improves forecasting, whether in an idealized context of known future rainfall, or in a more realistic context of ensemble meteorological forecast. Although generating more reliable forecasts, the chaining between ensemble meteorological forecasts and the probabilistic multi-model approach (thus creating a hydrological superset) requires an interpretation phase to be exploitable from an operational point of view
20

Bond, S. A. « Dynamic models of semi-variance ». Thesis, University of Cambridge, 2001. http://ethos.bl.uk/OrderDetails.do?uin=uk.bl.ethos.596758.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
Résumé :
The semi-variance is a measure of downside risk originally suggested by Markowitz (1959). More correctly termed a second order lower partial moment, it captures the volatility of a series below a target rate of return. Under a certain set of conditions, use of the variance provides the same result as using semi-variance. However, when there is asymmetry present in the distribution of returns and in the preferences of individuals, semi-variance is preferred. Despite the potential of such risk measures, little previous work has examined the most suitable form for a dynamic (conditional) model of a lower partial moment. A number of approaches to this problem suggest themselves, such as a regime model, distribution based model or even an OLS model. The development and evaluation of such models forms the central focus of this dissertation. After an introduction in Chapter 1, Chapter 2 introduces the concept of semi-variance in detail and provides a comparison of the sample properties of the estimators for semi-variance and variance. Furthermore, Chapter 2 develops an expression for the size of the relative (in)efficiency of the sample semi-variance under the assumptions of symmetry and asymmetry of returns. The subsequent three chapters consider the form of a conditional semi-variance model. Chapter 3 develops a family of regime models of downside risk based on the SETAR ARCH model (Tong 1990). The models developed are found to outperform GARCH models and are able to explicitly identify the semi-variance. The use of asymmetry conditional density functions in GARCH models is the focus of Chapter 4. More specifically, Chapter 4 develops a GARCH model based on the double gamma distribution. This distribution has the added advantage that the conditional semi-variance can be identified from the parameters of the density function. The model is applied to a set of foreign currencies with mixed results.
21

Bush, Christopher A. « Semi-parametric Bayesian linear models / ». The Ohio State University, 1994. http://rave.ohiolink.edu/etdc/view?acc_num=osu1487856076417948.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
22

Brefeld, Ulf. « Semi-supervised structured prediction models ». Doctoral thesis, Humboldt-Universität zu Berlin, Mathematisch-Naturwissenschaftliche Fakultät II, 2008. http://dx.doi.org/10.18452/15748.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
Résumé :
Das Lernen aus strukturierten Eingabe- und Ausgabebeispielen ist die Grundlage für die automatisierte Verarbeitung natürlich auftretender Problemstellungen und eine Herausforderung für das Maschinelle Lernen. Die Einordnung von Objekten in eine Klassentaxonomie, die Eigennamenerkennung und das Parsen natürlicher Sprache sind mögliche Anwendungen. Klassische Verfahren scheitern an der komplexen Natur der Daten, da sie die multiplen Abhängigkeiten und Strukturen nicht erfassen können. Zudem ist die Erhebung von klassifizierten Beispielen in strukturierten Anwendungsgebieten aufwändig und ressourcenintensiv, während unklassifizierte Beispiele günstig und frei verfügbar sind. Diese Arbeit thematisiert halbüberwachte, diskriminative Vorhersagemodelle für strukturierte Daten. Ausgehend von klassischen halbüberwachten Verfahren werden die zugrundeliegenden analytischen Techniken und Algorithmen auf das Lernen mit strukturierten Variablen übertragen. Die untersuchten Verfahren basieren auf unterschiedlichen Prinzipien und Annahmen, wie zum Beispiel der Konsensmaximierung mehrerer Hypothesen im Lernen aus mehreren Sichten, oder der räumlichen Struktur der Daten im transduktiven Lernen. Desweiteren wird in einer Fallstudie zur Email-Batcherkennung die räumliche Struktur der Daten ausgenutzt und eine Lösung präsentiert, die der sequenziellen Natur der Daten gerecht wird. Aus den theoretischen Überlegungen werden halbüberwachte, strukturierte Vorhersagemodelle und effiziente Optmierungsstrategien abgeleitet. Die empirische Evaluierung umfasst Klassifikationsprobleme, Eigennamenerkennung und das Parsen natürlicher Sprache. Es zeigt sich, dass die halbüberwachten Methoden in vielen Anwendungen zu signifikant kleineren Fehlerraten führen als vollständig überwachte Baselineverfahren.
Learning mappings between arbitrary structured input and output variables is a fundamental problem in machine learning. It covers many natural learning tasks and challenges the standard model of learning a mapping from independently drawn instances to a small set of labels. Potential applications include classification with a class taxonomy, named entity recognition, and natural language parsing. In these structured domains, labeled training instances are generally expensive to obtain while unlabeled inputs are readily available and inexpensive. This thesis deals with semi-supervised learning of discriminative models for structured output variables. The analytical techniques and algorithms of classical semi-supervised learning are lifted to the structured setting. Several approaches based on different assumptions of the data are presented. Co-learning, for instance, maximizes the agreement among multiple hypotheses while transductive approaches rely on an implicit cluster assumption. Furthermore, in the framework of this dissertation, a case study on email batch detection in message streams is presented. The involved tasks exhibit an inherent cluster structure and the presented solution exploits the streaming nature of the data. The different approaches are developed into semi-supervised structured prediction models and efficient optimization strategies thereof are presented. The novel algorithms generalize state-of-the-art approaches in structural learning such as structural support vector machines. Empirical results show that the semi-supervised algorithms lead to significantly lower error rates than their fully supervised counterparts in many application areas, including multi-class classification, named entity recognition, and natural language parsing.
23

MAILLOT, BERTRAND. « Modeles semi-microscopiques d'ondes elastiques ». Paris 7, 1994. http://www.theses.fr/1994PA077158.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
Résumé :
Les methodes classiques de simulation par resolutions d'equations differentielles se heurtent a de grandes difficultees lorsque les milieux sont fortement heterogenes, ou lorsque les conditions aux limites sont complexes. En hydrodynamique, les gaz sur reseaux, des modeles microscopiques simplifies de dynamique moleculaire, ou des particules booleennes se deplacent et entrent en collisions sur un reseau de discretisation spatiale, offrent une stabilite numerique inconditionnelle et une grande facilite de mise en uvre des conditions aux limites. Les problemes de viscosite et de fluctuations statistiques disparaissent dans les modeles semi-microscopiques de boltzmann sur reseau ou la presence moyenne des particules obeit a une equation de boltzmann discrete. La presente these est dediee a la construction de modeles microscopiques d'ondes elastiques. Dans un premier modele, limite aux ondes acoustiques, les particules sont assimilees a la pression dans le milieu et suivent les regles d'evolution des gaz sur reseaux. Cependant, aux heterogeneites, les particules sont localement assimilees a des ondes planes en incidence normale sur une interface plane. Elles sont donc reflechies proportionnellement au coefficient de reflexion classique de la pression, independamment de la direction d'incidence de l'onde macroscopique. On observe malgre tout que les reflexions et transmissions des ondes macroscopiques macroscopiques dependent effectivement des directions d'incidence. Cette observation est a la base des modeles presentes dans cette these. Pour la generalisation aux ondes elastiques, on remplace la pression par le tenseur des contraintes. Ce nouveau modele conduit theoriquement a l'equation d'ondes elastiques en milieux isotropes heterogenes. Les simulations numeriques verifient cette theorie quantitativement en milieux homogenes et qualitativement en milieux heterogenes. Un hiatus entre les vitesses numeriques et theoriques des ondes n'est cependant pas resolu. Ces travaux montrent qu'il est possible de construire un modele semi-microscopique d'ondes elastiques dans les solides, dont un des avantages est le calcul explicite d'un terme de reflexion, transmission, et conversion des ondes qui devrait permettre de simuler des contrastes arbitraires des proprietes des solides
24

Abgrall, Rémi. « Conception d'un modele semi lagrangien de turbulence bidimensionnelle ». Paris 6, 1987. http://www.theses.fr/1987PA066764.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
25

Génieys, Stéphane. « Modele de transport d'energie pour les semi-conducteurs ». Toulouse 3, 1997. http://www.theses.fr/1997TOU30247.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
Résumé :
Un modele de transport d'energie pour les semi-conducteurs est derive a partir de l'equation de boltzmann. On suppose pour cela que l'energie perdue ou gagnee par les electrons lors de l'emission ou de l'absorption de phonons est petite, et on retient a l'ordre principal les collisions electrons-electrons, les collisions electrons-impuretes et la partie elastique des collisions electrons-phonons. Un developpement de hilbert permettant d'obtenir le modele de transport d'energie est justifie, tout d'habord pour un semi-conducteur degenere avec diagramme de bande quelconque puis pour un semi-conducteur non-degenere avec bande parabolique. Dans le cas non-degenere avec bande parabolique, on montre la convergence du developpement de hilbert, pour l'equation de boltzmann linearisee autour d'un equilibre global. On montre ensuite la convergence de la solution de l'equation de boltzmann non lineaire pour un semi-conducteur degenere avec diagramme de bande quelconque, vers une fonction de fermi-dirac dont les moments d'ordre zero et deux sont solution du systeme de transport d'energie. On utilise pour cela une estimation d'entropie et un resultat de compacite en moyenne. La structure entropique et la formulation symetrique du systeme de transport d'energie sont mises en evidence. Cette structure est utilisee pour etudier l'existence et l'unicite de solutions dans le cas stationnaire puis l'existence et le comportement en temps long des solutions dans le cas transitoire. La formulation symetrique est aussi utilisee pour etablir un schema de discretisation du modele. L'etude numerique de plusieurs modeles de relaxation thermochimique a deux temperatures est incluse en appendice.
26

Yao, Anne-Françoise. « Un modèle semi-paramétrique pour variables fonctionnelles : la régression inverse fonctionnelle ». Toulouse 3, 2001. http://www.theses.fr/2001TOU30122.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
27

Tinland, Bernard. « Etude d'un polysaccharide microbien : le xanthane, modèle de molécule semi-rigide ». Grenoble 1, 1988. http://www.theses.fr/1988GRE10039.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
28

Santos, Douglas Gomes dos. « Estimação de volatilidade em séries financeiras : modelos aditivos semi-paramétricos e GARCH ». reponame:Biblioteca Digital de Teses e Dissertações da UFRGS, 2008. http://hdl.handle.net/10183/14892.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
Résumé :
A estimação e previsão da volatilidade de ativos são de suma importância para os mercados financeiros. Temas como risco e incerteza na teoria econômica moderna incentivaram a procura por métodos capazes de modelar uma variância condicional que evolui ao longo do tempo. O objetivo principal desta dissertação é comparar alguns métodos de regressão global e local quanto à extração da volatilidade dos índices Ibovespa e Standard and Poor´s 500. Para isto, são realizadas estimações e previsões com os modelos GARCH paramétricos e com os modelos aditivos semi-paramétricos. Os primeiros, tradicionalmente utilizados na estimação de segundos momentos condicionais, têm sua capacidade sugerida em diversos artigos. Os segundos provêm alta flexibilidade e descrições visualmente informativas das relações entre as variáveis, tais como assimetrias e não linearidades. Sendo assim, testar o desempenho dos últimos frente às estruturas paramétricas consagradas apresenta-se como uma investigação apropriada. A realização das comparações ocorre em períodos selecionados de alta volatilidade no mercado financeiro internacional (crises), sendo a performance dos modelos medida dentro e fora da amostra. Os resultados encontrados sugerem a capacidade dos modelos semi-paramétricos em estimar e prever a volatilidade dos retornos dos índices nos momentos analisados.
Volatility estimation and forecasting are very important matters for the financial markets. Themes like risk and uncertainty in modern economic theory have encouraged the search for methods that allow for the modeling of time varying variances. The main objective of this dissertation is to compare global and local regressions in terms of their capacity to extract the volatility of Ibovespa and Standard and Poor 500 indexes. To achieve this aim, parametric GARCH and semiparametric additive models estimation and forecasting are performed. The first ones, traditionally applied in the estimation of conditional second moments, have their capacity suggested in many papers. The second ones provide high flexibility and visually informative descriptions of the relationships between the variables, like asymmetries and nonlinearities. Therefore, testing the last ones´ performance against the acknowledged parametric structures is an appropriate investigation. Comparisons are made in selected periods of high volatility in the international financial market (crisis), measuring the models´ performance inside and outside sample. The results that were found suggest the capacity of semiparametric models to estimate and forecast the Indexes returns´ volatility at the analyzed moments.
29

Das, Sourav. « Models of semi-systematic visual search ». Connect to this title online, 2007. http://etd.lib.clemson.edu/documents/1181250703/.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
30

Tran, Quang-Dat. « Modèle simplifié pour les chaussées fissurées multicouches ». Marne-la-vallée, ENPC, 2004. https://pastel.archives-ouvertes.fr/pastel-00001026.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
31

Basdevant, Nathalie. « Un Modèle de Solvatation Semi-Implicite pour la Simulation des Macromolécules Biologiques ». Phd thesis, Université d'Evry-Val d'Essonne, 2003. http://tel.archives-ouvertes.fr/tel-00010619.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
Résumé :
Dans la cellule des organismes vivants, le solvant (l'eau) joue un rôle très important dans la stabilisation des structures tridimensionnelles des macromolécules biologiques et lors de leurs interactions. Les méthodes théoriques de simulations de modélisation moléculaire permettent de compléter les informations partielles sur l'hydratation des biomolécules obtenues par les méthodes expérimentales. Nous avons développé un nouveau modèle de solvatation semi-implicite pour représenter le solvant en modélisation moléculaire. Ce modèle décrit le solvant comme des particules microscopiques dont les propriétés diélectriques découlent des lois macroscopiques de l'électrostatique. Nous obtenons ainsi à l'équilibre électrostatique un fluide de particules de Lennard-Jones non polaires, polarisables par le champ électrique créé par le soluté. Ce modèle a l'intérêt de prendre en compte la structure moléculaire du solvant tout en calculant efficacement l'énergie libre électrostatique de solvatation du système. De plus, il est d'un faible coût numérique comparé aux méthodes explicites. Après avoir implémenté notre modèle dans un programme de dynamique moléculaire et l'avoir paramétré de façon simple, nous l'avons appliqué à plusieurs peptides, protéines et acides nucléiques (ADN et ARN de transfert). Les trajectoires de ces simulations sont stables sur une à deux nanosecondes, et les structures obtenues sont tout à fait en accord avec les méthodes expérimentales et les méthodes théoriques de solvatation explicites. Notre modèle permet également de retrouver les sites préférentiels d'hydratation des molécules étudiées identifiés expérimentalement ou théoriquement, malgré l'absence de liaisons hydrogène dans notre solvant. De plus, nous observons de bonnes corrélations entre les énergies libres électrostatiques de solvatation calculées avec notre modèle et celles calculées avec les méthodes de résolution de l'équation de Poisson-Boltzmann, et ces résultats paraissent très encourageants.
32

Balieu, Romain. « Modèle viscoélastique-viscoplastique couplé avec endommagement pour les matériaux polymères semi-cristallins ». Phd thesis, Université de Valenciennes et du Hainaut-Cambresis, 2012. http://tel.archives-ouvertes.fr/tel-00819902.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
Résumé :
Les matériaux polymères sont largement utilisés pour des applications structurelles dans le secteur automobile et leurs comportements complexes nécessitent des modèles précis pour la simulation éléments finis. Les polymères possèdent un comportement dépendant du temps et de la vitesse. La dépendance à la vitesse peut être observée par un accroissement de la rigidité et de la limite élastique en fonction de la vitesse de déformation. Le long temps nécessaire pour retrouver des contraintes nulles après sollicitation du matériau met en évidence la dépendance du temps sur le comportement. De plus, particulièrement pour les polymères chargés, le phénomène de cavitation se traduisant par la création et la croissance de micro-cavités et de microfissures conduit à un changement de volume durant la déformation. Dans ce travail, un modèle de comportement est développé pour un polymère semi-cristallin chargé de talc utilisé dans l'industrie automobile. Un modèle constitutif viscoélastique-viscoplastique non-associatif avec endommagement non-local est proposé dans le but de simuler les phénomènes observés expérimentalement. Dans le modèle développé, une surface de charge non symétrique est utilisée pour prendre en compte la pression hydrostatique. La viscoplasticité non-associative couplée avec l'endommagement conduit aux déformations viscoplastiques non-isochoriques caractérisées expérimentalement. Les paramètres du modèle proviennent d'essais expérimentaux réalisés sous différentes conditions et 'a différentes vitesses de déformation. Pour ces essais, plusieurs techniques de mesure, telles que la corrélation d'images et l'extensommetrie optique sont utilisées pour les mesures de champs de déplacements. La bonne corrélation entre les données expérimentales et les simulations numériques mettent en évidence la précision du modèle développé afin de modéliser le comportement des matériaux polymères semi-cristallins.
33

Martin, Christophe. « Rhéologie et structure d'un alliage modèle Sn-Pb à l'état semi-solide ». Grenoble INPG, 1995. http://www.theses.fr/1995INPG0128.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
Résumé :
Lors de sa solidification un alliage presente, dans un certain intervalle de temperature, une phase solide et une phase liquide. L'alliage semi-solide peut etre soumis a des deformations qui, par exemple, lors de la coulee continue peuvent induire des defauts (segregations de liquide, fissures). Le but de ce travail est de proposer des lois de comportement des alliages semi-solides comportant de 50 a 90% de phase solide en les considerant comme un milieu poreux viscoplastique sature de liquide. Nous avons utilise le formalisme d'abouaf. Il definit un potentiel de dissipation viscoplastique qui depend du premier invariant des contraintes (i#1) et de la contrainte equivalente de mises et qui introduit deux fonctions de la fraction de solide. Plusieurs techniques experimentales, specifiques aux alliages semi-solides, ont ete mises au point pour identifier ces deux fonctions. Ainsi, la loi de comportement d'un alliage semi-solide sn-pb de morphologie dendritique a ete determinee par des essais deviatoires dans un rheometre de couette et par des essais hydrostatiques draines. Le modele a ete partiellement valide par des essais triaxiaux draines et par des essais de compression simple. L'influence de la morphologie de la phase solide a ete etudiee en comparant le comportement deviatoire d'une structure dendritique et deux structures globulaires. A un niveau plus fondamental, la mesure de la pression interstitielle de liquide lors d'essais de compression non drainee a permis de montrer les insuffisances du potentiel d'abouaf. En particulier, nous avons etabli la non-parite du potentiel en i#1. Une nouvelle forme de potentiel, dependant du degre de cohesion de la phase solide, a ete proposee. Les principales implications theoriques de la loi de comportement ont ete etudiees. Finalement les trois fonctions de la fraction de solide qui definissent ce potentiel ont ete identifiees experimentalement, et partiellement validees a partir d'essais triaxiaux
34

Ben, Jemaa Kaouther. « Les facteurs du stress des alliances stratégiques : une grille de lecture selon le modèle SMOCS ». Thesis, Sorbonne Paris Cité, 2017. http://www.theses.fr/2017USPCD026.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
Résumé :
Si les alliances stratégiques ont fait l’objet de plusieurs recherches en management stratégique, l’appréciation de ce phénomène en situation de stress demeure très peu explorée. Cette thèse étudiera le concept des alliances stratégiques stressées, qu’elle développe en élargissant la perspective stratégique du stress des organisations. Selon la littérature traitant les relations interentreprises, l'alliance stratégique est considérée comme une forme de coopération instable, présentant un risque et impliquant une relation inéquitable. Elle subit l’action et la présence de plusieurs forces internes et externes, qui menacent sa survie, au risque de déséquilibres ou de dysfonctionnements, contributeurs des difficultés. De ce fait, les partenaires doivent appréhender des mesures d’adaptations, des ajustements et des négociations. La revue de la littérature de l’échec et de l’instabilité des alliances établie en se basant sur le modèle SMOCS (Smida, 1995) nous a permis de suggérer les trois principaux facteurs de stress à savoir : les objectifs, les ressources et l’environnement. Une méthode de recherche qualitative fondée sur des entretiens semi-directifs est adoptée. La visée de la recherche est exploratoire. Ancrée dans le paradigme interprétativiste, elle repose sur un mode de raisonnement abductif. La démarche adoptée s’appuie sur l’analyse de 40 entretiens semi-directifs réalisés auprès d’alliances managers, de directeurs d’alliances et de consultants. Les résultats de notre recherche montrent que les partenaires oscillent entre convergence et divergence d’objectifs, entre volonté de partage et domination du management, entre diffusion et rétention de connaissances et ressources, et pour finir, entre loyauté et opportunisme. L’alliance stratégique exige la recherche constante d’un équilibre délicat et menacé notamment par l’exaspération des tensions. S’inscrivant dans cette logique, l’alliance stratégique est donc, une organisation stressée et figure parmi les événements les plus stressants pour les entreprises, du fait, qu’elle soit capable d’activer simultanément plusieurs facteurs de stress. Nous notons que le stress est positif, si les adaptations, ajustements et négociations sont réussies cependant, qu’il sera négatif dans le cas d’échec de ces derniers. Il s’agit d’un apport aux recherches sur la dynamique des relations d’alliances suite à un processus de négociations. Nous apportons ainsi une description claire de la situation d’adaptation de l’alliance s’agissant d’une situation de stress. Ce travail présente comme intérêt un apport conceptuel, celui d’une alliance stressée ainsi que de ses différents facteurs de stress. L’intérêt managérial réside dans le diagnostic de la situation de stress des alliances
While strategic alliances have been the subject of several studies in strategic management, this phenomenon under stress remains little explored. This thesis will study the concept of stressed strategic alliances, which it develops by enlarging the strategic perspective of stress in organizations. It emerges from the review of the literature that the strategic alliance is an unstable inter-company form, a risky and inequitable strategy. It undergoes the action and the presence of several internal and external forces that menace its survival, under risk of imbalances or dysfunctions that contribute to difficulties. Therefore, the partners must understand adaptive measures, adjustments and negotiations. The review of the literature of the failure and instability of alliances established based on the model SMOCS (Smida, 1995) allowed us to suggest the three principle factors of stress, i.e., objectives, resources and environment. A qualitative research method based on semi-directed interviews was adopted. The research goal is exploratory. Anchored in an interpretive paradigm, the target follows abductive reasoning. The adopted approach is based on analysis of 40 semi-directed interviews held with alliance managers, directors and consultants. The results of our research show that partners vacillate between convergence and divergence of objectives, between the will to share and to dominate management, between diffusion and retention of knowledge and resources, and finally, between loyalty and opportunism. The strategic alliance demands constant search of a delicate equilibrium threatened notably by aggravation of tensions. In this logic, the strategic alliance is thus a stressed organization and figures among the most stressful events for companies; it is capable of simultaneously activating several stress factors. We find that stress is positive if the adaptations, adjustments and negotiations are successful, but that it is negative in the case of their failure. This study contributes to the research on the dynamics of alliance relationships following a process of negotiations. We thus contribute a clear description of the situation of adaptation of the alliance under a situation of stress. This work presents a conceptual contribution, that of the stressed alliance as well as its different factors of stress. Managerial interest resides in the diagnostic of the situation of stress in alliances
35

Torrent, Hudson da Silva. « Estimação não-paramétrica e semi-paramétrica de fronteiras de produção ». reponame:Biblioteca Digital de Teses e Dissertações da UFRGS, 2010. http://hdl.handle.net/10183/25786.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
Résumé :
Existe uma grande e crescente literatura sobre especificação e estimação de fronteiras de produção e, portanto, de eficiência de unidades produtivas. Nesta tese, o foco esta sobre modelos de fronteiras determinísticas, os quais são baseados na hipótese de que os dados observados pertencem ao conjunto tecnológico. Dentre os modelos estatísticos e estimadores para fronteiras determinísticas existentes, uma abordagem promissora e a adotada por Martins-Filho e Yao (2007). Esses autores propõem um procedimento de estimação composto por três estágios. Esse estimador e de fácil implementação, visto que envolve procedimentos não-paramétricos bem conhecidos. Além disso, o estimador possui características desejáveis vis-à-vis estimadores para fronteiras determinísticas tradicionais como DEA e FDH. Nesta tese, três artigos, que melhoram o modelo proposto por Martins-Filho e Yao (2007), sao propostos. No primeiro artigo, o procedimento de estimação desses autores e melhorado a partir de uma variação do estimador exponencial local, proposto por Ziegelmann (2002). Demonstra-se que estimador proposto a consistente e assintoticamente normal. Além disso, devido ao estimador exponencial local, estimativas potencialmente negativas para a função de variância condicional, que poderiam prejudicar a aplicabilidade do estimador proposto por Martins-Filho e Yao, são evitadas. No segundo artigo, e proposto um método original para estimação de fronteiras de produção em apenas dois estágios. E mostrado que se pode eliminar o segundo estágio proposto por Martins-Filho e Yao, assim como, eliminar o segundo estagio proposto no primeiro artigo desta tese. Em ambos os casos, a estimação do mesmo modelo de fronteira de produção requer três estágios, sendo versões diferentes para o segundo estagio. As propriedades assintóticas do estimador proposto são analisadas, mostrando-se consistência e normalidade assintótica sob hipóteses razoáveis. No terceiro artigo, a proposta uma variação semi-paramétrica do modelo estudado no segundo artigo. Reescreve-se aquele modelo de modo que se possa estimar a fronteira de produção e a eficiência de unidades produtivas no contexto de múltiplos insumos, sem incorrer no curse of dimensionality. A abordagem adotada coloca o modelo na estrutura de modelos aditivos, a partir de hipóteses sobre como os insumos se combinam no processo produtivo. Em particular, considera-se aqui os casos de insumos aditivos e insumos multiplicativos, os quais são amplamente considerados em teoria econômica e aplicações. Estudos de Monte Carlo são apresentados em todos os artigos, afim de elucidar as propriedades dos estimadores propostos em amostras finitas. Além disso, estudos com dados reais são apresentados em todos os artigos, nos quais são estimador rankings de eficiência para uma amostra de departamentos policiais dos EUA, a partir de dados sobre criminalidade daquele país.
There exists a large and growing literature on the specification and estimation of production frontiers and therefore efficiency of production units. In this thesis we focus on deterministic production frontier models, which are based on the assumption that all observed data lie in the technological set. Among the existing statistical models and estimators for deterministic frontiers, a promising approach is that of Martins-Filho and Yao (2007). They propose an estimation procedure that consists of three stages. Their estimator is fairly easy to implement as it involves standard nonparametric procedures. In addition, it has a number of desirable characteristics vis-a-vis traditional deterministic frontier estimators as DEA and FDH. In this thesis we propose three papers that improve the model proposed in Martins-Filho and Yao (2007). In the first paper we improve their estimation procedure by adopting a variant of the local exponential smoothing proposed in Ziegelmann (2002). Our estimator is shown to be consistent and asymptotically normal. In addition, due to local exponential smoothing, potential negativity of conditional variance functions that may hinder the use of Martins-Filho and Yao's estimator is avoided. In the second paper we propose a novel method for estimating production frontiers in only two stages. (Continue). There we show that we can eliminate the second stage of Martins-Filho and Yao as well as of our first paper, where estimation of the same frontier model requires three stages under different versions for the second stage. We study asymptotic properties showing consistency andNirtnin, asymptotic normality of our proposed estimator under standard assumptions. In the third paper we propose a semiparametric variation of the frontier model studied in the second paper. We rewrite that model allowing for estimating the production frontier and efficiency of production units in a multiple input context without suffering the curse of dimensionality. Our approach places that model within the framework of additive models based on assumptions regarding the way inputs combine in production. In particular, we consider the cases of additive and multiplicative inputs, which are widely considered in economic theory and applications. Monte Carlo studies are performed in all papers to shed light on the finite sample properties of the proposed estimators. Furthermore a real data study is carried out in all papers, from which we rank efficiency within a sample of USA Law Enforcement agencies using USA crime data.
36

Fraysse, Philippe. « Estimation récursive dans certains modèles de déformation ». Phd thesis, Université Sciences et Technologies - Bordeaux I, 2013. http://tel.archives-ouvertes.fr/tel-00844393.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
Résumé :
Cette thèse est consacrée à l'étude de certains modèles de déformation semi-paramétriques. Notre objectif est de proposer des méthodes récursives, issues d'algorithmes stochastiques, pour estimer les paramètres de ces modèles. Dans la première partie, on présente les outils théoriques existants qui nous seront utiles dans la deuxième partie. Dans un premier temps, on présente un panorama général sur les méthodes d'approximation stochastique, en se focalisant en particulier sur les algorithmes de Robbins-Monro et de Kiefer-Wolfowitz. Dans un second temps, on présente les méthodes à noyaux pour l'estimation de fonction de densité ou de régression. On s'intéresse plus particulièrement aux deux estimateurs à noyaux les plus courants qui sont l'estimateur de Parzen-Rosenblatt et l'estimateur de Nadaraya-Watson, en présentant les versions récursives de ces deux estimateurs.Dans la seconde partie, on présente tout d'abord une procédure d'estimation récursive semi-paramétrique du paramètre de translation et de la fonction de régression pour le modèle de translation dans la situation où la fonction de lien est périodique. On généralise ensuite ces techniques au modèle vectoriel de déformation à forme commune en estimant les paramètres de moyenne, de translation et d'échelle, ainsi que la fonction de régression. On s'intéresse finalement au modèle de déformation paramétrique de variables aléatoires dans le cadre où la déformation est connue à un paramètre réel près. Pour ces trois modèles, on établit la convergence presque sûre ainsi que la normalité asymptotique des estimateurs paramétriques et non paramétriques proposés. Enfin, on illustre numériquement le comportement de nos estimateurs sur des données simulées et des données réelles.
37

Lechartier, Élodie. « Contribution au prognostic de pile à combustible PEMFC basé sur modèle semi-analytique ». Thesis, Besançon, 2016. http://www.theses.fr/2016BESA2066/document.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
Résumé :
Les préoccupations environnementales actuelles nous amènent à envisager des solutions alternatives, telles que la pile à combustible. Cette dernière malgré ses avantages présente des faiblesses qui ralentissent sa diffusion au sein de l'industrie, entre autres, sa trop courte durée de vie. Face à cette considération, nous proposons d'appliquer le PHM à la PEMFC. Il faut donc développer le pronostic puis considérer son insertion au sein d'un système industriel. Nous choisissons de baser l'approche proposée sur un modèle de comportement, tout en proposant de combler le manque de connaissance concernant le vieillissement de la pile par les données, ce qui nous permet amène à développer une approche hybride. Dans ces travaux, le modèle comportemental est étudié sur des durées de plus en plus grandes pour enfin proposer une prédiction de l'ordre du millier d'heure. Afin de prendre en compte une implantation au sein d'un système réel, une étude sur la généricité et applicabilité de l'approche est réalisée. Ainsi, ces travaux proposent une approche de pronostic hybride basée sur un modèle de comportement et étudie son insertion au sein d'un système réel
The current environmental concerns lead us to consider alternative solutions. The fuel cell can be one of them with numerous advantages, it presents however weaknesses, especially, its life duration which is too short. Face to this issue, we offer to apply the PHM to the PEMFC. For that, it is necessary to develop the prognostics for this application and the possibility of the on-line implementation on an industrial system. It was chosen to base the approach on a behavioral model in which the knowledge gaps are completed with the use of data. So, the approach proposed here, is hybrid. In this work, the behavioral model is studied on laps of time longer in order to finally introduce a prediction of a thousand of hours. Then, the online implementation on a real system is considered with a genericity and an applicability study. This work proposes a hybrid prognostics approach based on a behavioral model and study its implementation on an industrial system
38

Chen, Chunxia. « Semi-parametric estimation in Tobit regression models ». Kansas State University, 2013. http://hdl.handle.net/2097/15300.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
Résumé :
Master of Science
Department of Statistics
Weixing Song
In the classical Tobit regression model, the regression error term is often assumed to have a zero mean normal distribution with unknown variance, and the regression function is assumed to be linear. If the normality assumption is violated, then the commonly used maximum likelihood estimate becomes inconsistent. Moreover, the likelihood function will be very complicated if the regression function is nonlinear even the error density is normal, which makes the maximum likelihood estimation procedure hard to implement. In the full nonparametric setup when both the regression function and the distribution of the error term [epsilon] are unknown, some nonparametric estimators for the regression function has been proposed. Although the assumption of knowing the distribution is strict, it is a widely adopted assumption in Tobit regression literature, and is also confirmed by many empirical studies conducted in the econometric research. In fact, a majority of the relevant research assumes that [epsilon] possesses a normal distribution with mean 0 and unknown standard deviation. In this report, we will try to develop a semi-parametric estimation procedure for the regression function by assuming that the error term follows a distribution from a class of 0-mean symmetric location and scale family. A minimum distance estimation procedure for estimating the parameters in the regression function when it has a specified parametric form is also constructed. Compare with the existing semiparametric and nonparametric methods in the literature, our method would be more efficient in that more information, in particular the knowledge of the distribution of [epsilon], is used. Moreover, the computation is relative inexpensive. Given lots of application does assume that [epsilon] has normal or other known distribution, the current work no doubt provides some more practical tools for statistical inference in Tobit regression model.
39

Delgado, Carlos Alberto Cardozo. « Semi-parametric generalized log-gamma regression models ». Universidade de São Paulo, 2017. http://www.teses.usp.br/teses/disponiveis/45/45133/tde-15032018-185352/.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
Résumé :
The central objective of this work is to develop statistical tools for semi-parametric regression models with generalized log-gamma errors under the presence of censored and uncensored observations. The estimates of the parameters are obtained through the multivariate version of Newton-Raphson algorithm and an adequate combination of Fisher Scoring and Backffitting algorithms. Through analytical tools and using simulations the properties of the penalized maximum likelihood estimators are studied. Some diagnostic techniques such as quantile and deviance-type residuals as well as local influence measures are derived. The methodologies are implemented in the statistical computational environment R. The package sglg is developed. Finally, we give some applications of the models to real data.
O objetivo central do trabalho é proporcionar ferramentas estatísticas para modelos de regressão semiparamétricos quando os erros seguem distribução log-gamma generalizada na presença de observações censuradas ou não censuradas. A estimação paramétrica e não paramétrica são realizadas através dos procedimentos Newton - Raphson, escore de Fisher e Backfitting (Gauss - Seidel). As propriedades assintóticas dos estimadores de máxima verossimilhança penalizada são estudadas em forma analítica, bem como através de simulações. Alguns procedimentos de diagnóstico são desenvolvidos, tais como resíduos tipo componente do desvio e resíduo quantílico, bem como medidas de influ\\^encia local sob alguns esquemas usuais de perturbação. Todos procedimentos do presente trabalho são implementados no ambiente computacional R, o pacote sglg é desenvolvido, assim como algumas aplicações a dados reais são apresentadas.
40

Tran, Quang Dat. « Modèle simplifié pour les chaussées fissurées multicouches ». Phd thesis, Ecole des Ponts ParisTech, 2004. http://pastel.archives-ouvertes.fr/pastel-00001026.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
Résumé :
Les modèles simplifiés usuels de dimensionnement des chaussées ne permettent pas de modéliser des chaussées fissurées et une modélisation par éléments finis 3D peut s'avérer très lourde. Dans l'objectif de construire un outil rapide et efficace de diagnostic et d'entretien des chaussées dégradées par le trafic, un modèle simplifié est proposé. Ce modèle repose sur un modèle simplifié adapté aux problèmes de flexion, le modèle multiparticulaire des matériaux multicouches (M4) à 5n équations (n: nombre total de couches) et le modèle élastique de Boussinesq pour le massif de sol. Programmé sous Matlab, dans le cas de bicouches de chaussées fissurées verticalement, ce modèle donne très rapidement d'excellents résultats par comparaison avec des calculs éléments finis 3D. Les cas de chargement de retrait thermique et de gradient thermique sont intégrés dans la modélisation et validés. Pour accélérer encore plus l'obtention des solutions dans le cadre de calculs multi- cycles, une méthode d'extrapolation des résultats du 2D pour estimer le 3D est exposée.
41

Nguyen, Van Hanh. « Modèles de mélange semi-paramétriques et applications aux tests multiples ». Phd thesis, Université Paris Sud - Paris XI, 2013. http://tel.archives-ouvertes.fr/tel-00987035.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
Résumé :
Dans un contexte de test multiple, nous considérons un modèle de mélange semi-paramétrique avec deux composantes. Une composante est supposée connue et correspond à la distribution des p-valeurs sous hypothèse nulle avec probabilité a priori p. L'autre composante f est nonparamétrique et représente la distribution des p-valeurs sous l'hypothèse alternative. Le problème d'estimer les paramètres p et f du modèle apparaît dans les procédures de contrôle du taux de faux positifs (''false discovery rate'' ou FDR). Dans la première partie de cette dissertation, nous étudions l'estimation de la proportion p. Nous discutons de résultats d'efficacité asymptotique et établissons que deux cas différents arrivent suivant que f s'annule ou non surtout un intervalle non-vide. Dans le premier cas (annulation surtout un intervalle), nous présentons des estimateurs qui convergent \' la vitesse paramétrique, calculons la variance asymptotique optimale et conjecturons qu'aucun estimateur n'est asymptotiquement efficace (i.e atteint la variance asymptotique optimale). Dans le deuxième cas, nous prouvons que le risque quadratique de n'importe quel estimateur ne converge pas à la vitesse paramétrique. Dans la deuxième partie de la dissertation, nous nous concentrons sur l'estimation de la composante inconnue nonparamétrique f dans le mélange, en comptant sur un estimateur préliminaire de p. Nous proposons et étudions les propriétés asymptotiques de deux estimateurs différents pour cette composante inconnue. Le premier estimateur est un estimateur à noyau avec poids aléatoires. Nous établissons une borne supérieure pour son risque quadratique ponctuel, en montrant une vitesse de convergence nonparamétrique classique sur une classe de Holder. Le deuxième estimateur est un estimateur du maximum de vraisemblance régularisée. Il est calculé par un algorithme itératif, pour lequel nous établissons une propriété de décroissance d'un critère. De plus, ces estimateurs sont utilisés dans une procédure de test multiple pour estimer le taux local de faux positifs (''local false discovery rate'' ou lfdr).
42

Mendoza, Chavez Gustavo. « Approche semi-automatique de génération de modèles bielles-et-tirants ». Thesis, Paris Est, 2018. http://www.theses.fr/2018PESC1030/document.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
Résumé :
Dans le domaine des structures en Béton Armé (BA) et plus spécifiquement, lors de la conception d'éléments non-flexibles tels que les corbeaux, les poutres bayonets et les poutres profondes, la Méthode Bielle-Tirant (MBT) présente des avantages par rapport aux algorithmes classiques de calcul de ferraillage basé sur l'analyse FE (par exemple Wood-Armor ou Capra-Maury).La Methode Bielle-Tirant reste une alternative adaptée pour la conception de structures en béton présentant un comportement élastique ou plastique dont le cadre d'application est bien défini dans les codes de conception des structures en béton comme les EuroCodes et les spécifications de conception des ponts AASHTO-LRFD.Néanmoins, cette méthode présente l'inconvénient majeur de nécessiter un investissement important en ressources humaines ou en capacité de calcul pour, respectivement, son application manuelle ou une approche automatique par optimisation de topologie.Le document propose une alternative légère, en termes d'itérations requises, à l'automatisation de la MBT, qui part de l'affirmation que les entretoises résultantes et les attaches d'un modèle ST approprié peuvent être distribuées selon la direction des contraintes principales, $sigma_{III}$ et $sigma_{I}$, obtenus à partir d'un planaire modèle aux EF
Within the field of Reinforced Concrete (RC) structures and more specifically, at the design of non-flexural elements such as corbels, nibs, and deep beams, the rational procedure of conception and justification referred as Strut-and-Tie Method (STM) has shown some advantages over classical algorithms of reinforcement computation based on FE analysis (eg. Wood-Armer or Capra-Maury).The STM remains a suitable alternative for the design of concrete structures presenting either elastic or plastic behaviour whose application framework is well defined in concrete structures’ design codes like the EuroCodes and the AASHTO-LRFD Bridge Design Specifications.Nevertheless, this method has the main inconvenient of requiring a high amount of resources investment in terms of highly experienced personal or in terms of computational capacity for, respectively, its manual application or an automatic approach through topology optimisation.The document proposes a light alternative, in terms of required iterations, to the automation of the STM, which starts from the statement that the resultant struts and ties of a suitable ST model can be distributed according to the direction of the principal stresses, $sigma_{III}$ and $sigma_{I}$ , obtained from a planar or a three-dimensional FE model
43

Sahoury, Nada. « Reconstruction semi-analytique des paramètres fondamentaux de quelques modèles supersymétriques ». Montpellier 2, 2008. http://www.theses.fr/2008MON20238.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
Résumé :
Mon travail de thèse porte sur la phénoménologie de la supersymétrie, plus précisément sur la détermination des paramètres du modèle dit Supergravité Minimale (mSUGRA). La supersymétrie étant l'une des pistes les plus prometteuses de la physique au-delà du modèle standard, sera l'objet principal de recherche au LHC. La reconstruction des paramètres mSUGRA se fait principalement à partir de la désintégration en cascade des gluinos et des squarks. Ainsi, en combinant les données expérimentales, les conditions d'universalité et les équations du groupe de renormalisation on arrive à reconstruire m0, m1/2,A0, tan(b) et "mu" qui sont les principaux paramètres génériques du modèle. Les erreurs correspondantes sont assez comparables à celles des procédures d'ajustement paramétrés traditionelles (fits), en sachant que dans notre analyse nous utilisons seulement quatre données expérimentales observables contrairement aux fits ordinaires dans lesquels 15 à 20 paramètres "inputs" sont pris en considération. Pour l'instant, les résultats obtenus à travers le code de calcul du spectre "SUSPECT" sont ceux du point SPS1a. Cependant, cette méthode peut être étendue à d'autres points mSUGRA et d'autres désintégrations au LHC et au ILC
My research field is based mainly on Supersymmetry and related phenomenology for colliders. More precisely, I am working on the reconstruction of the minimal supergravity model (mSUGRA) parameters. What we are trying to do is to define new methods by which one can determine the parameters of mSUGRA with a limited number of observables in the case that only few particles will be discovered at colliders. The reconstruction of the mSUGRA parameters relies on the squarks and gluinos cascade decay. By combining the universality condition, the Renormalization Group Equations and the equations of the running squark masses, we obtain analytical relations which allow to calculate the parameters of the model and using a semi- analytical guided fit. The related errors are very comparable to the one obtained by traditional fits. The advantage of this technique is that we use only four input observable parameters unlike fit methods in which fifteen to twenty inputs related to measurable quantities are considered. For instance this method has been tested on the SPS 1a model but it can readily be extended to other cascade decays to help identifying other Supersymmetry breaking mSUGRA models at LHC and ILC
44

Clertant, Matthieu. « Semi-parametric bayesian model, applications in dose finding studies ». Thesis, Paris 6, 2016. http://www.theses.fr/2016PA066230/document.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
Résumé :
Les Phases I sont un domaine des essais cliniques dans lequel les statisticiens ont encore beaucoup à apporter. Depuis trente ans, ce secteur bénéficie d'un intérêt croissant et de nombreuses méthodes ont été proposées pour gérer l'allocation séquentielle des doses aux patients intégrés à l'étude. Durant cette Phase, il s'agit d'évaluer la toxicité, et s'adressant à des patients gravement atteints, il s'agit de maximiser les effets curatifs du traitement dont les retours toxiques sont une conséquence. Parmi une gamme de doses, on cherche à déterminer celle dont la probabilité de toxicité est la plus proche d'un seuil souhaité et fixé par les praticiens cliniques. Cette dose est appelée la MTD (maximum tolerated dose). La situation canonique dans laquelle sont introduites la plupart des méthodes consiste en une gamme de doses finie et ordonnée par probabilité de toxicité croissante. Dans cette thèse, on introduit une modélisation très générale du problème, la SPM (semi-parametric methods), qui recouvre une large classe de méthodes. Cela permet d'aborder des questions transversales aux Phases I. Quels sont les différents comportements asymptotiques souhaitables? La MTD peut-elle être localisée? Comment et dans quelles circonstances? Différentes paramétrisations de la SPM sont proposées et testées par simulations. Les performances obtenues sont comparables, voir supérieures à celles des méthodes les plus éprouvées. Les résultats théoriques sont étendus au cas spécifique de l'ordre partiel. La modélisation de la SPM repose sur un traitement hiérarchique inférentiel de modèles satisfaisant des contraintes linéaires de paramètres inconnus. Les aspects théoriques de cette structure sont décrits dans le cas de lois à supports discrets. Dans cette circonstance, de vastes ensembles de lois peuvent aisément être considérés, cela permettant d'éviter les cas de mauvaises spécifications
Phase I clinical trials is an area in which statisticians have much to contribute. For over 30 years, this field has benefited from increasing interest on the part of statisticians and clinicians alike and several methods have been proposed to manage the sequential inclusion of patients to a study. The main purpose is to evaluate the occurrence of dose limiting toxicities for a selected group of patients with, typically, life threatening disease. The goal is to maximize the potential for therapeutic success in a situation where toxic side effects are inevitable and increase with increasing dose. From a range of given doses, we aim to determine the dose with a rate of toxicity as close as possible to some threshold chosen by the investigators. This dose is called the MTD (maximum tolerated dose). The standard situation is where we have a finite range of doses ordered with respect to the probability of toxicity at each dose. In this thesis we introduce a very general approach to modeling the problem - SPM (semi-parametric methods) - and these include a large class of methods. The viewpoint of SPM allows us to see things in, arguably, more relevant terms and to provide answers to questions such as asymptotic behavior. What kind of behavior should we be aiming for? For instance, can we consistently estimate the MTD? How, and under which conditions? Different parametrizations of SPM are considered and studied theoretically and via simulations. The obtained performances are comparable, and often better, to those of currently established methods. We extend the findings to the case of partial ordering in which more than one drug is under study and we do not necessarily know how all drug pairs are ordered. The SPM model structure leans on a hierarchical set-up whereby certain parameters are linearly constrained. The theoretical aspects of this structure are outlined for the case of distributions with discrete support. In this setting the great majority of laws can be easily considered and this enables us to avoid over restrictive specifications than can results in poor behavior
45

Vuza, Xolisa. « Social and technical issues of IP-based multi-modal semi-synchronous communication : rural telehealth communication in South Africa ». Thesis, University of the Western Cape, 2005. http://etd.uwc.ac.za/index.php?module=etd&amp.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
Résumé :
Most rural areas of developing countries are faced with problems like shortage of doctors in hospitals, illiteracy and poor power supply. Because of these issues, Information and Communication Technology (ICT) is often sees as a useful solution for these areas. Unfortunately, the social environment is often ignored. This leads to inappropriate systems being developed for these areas. The aims of this thesis were firstly, to learn how a communication system can be built for a rural telehealth environment in a developing country, secondly to learn how users can be supported to use such a system.
46

Zakaria, Abdellatif. « La plaine méridionale de Tiznit et ses bordures : étude d'un modèle semi-aride ». Université Paris-Est Créteil Val de Marne (UPEC), 1996. http://www.theses.fr/1996PA120032.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
Résumé :
Cette étude représente un exemple type d'une région de contact montagne-piémont dans un tronçon de la retombée septentrionale de l'anti-atlas occidental marocain. Les pôles d'intérêt morphologique se répartissent en deux grands thèmes: le premier est relatif au modèle de dissection dans les plateaux calcaro-dolomitiques du paléozoïque. Sa signature morphogénétique est l'épanouissement d'un modèle karstique relativement original d'une part, comme celui situe sur le plateau septentrional des Akhsass. D'autre part, des formes d'aplanissement très nettes, englobent les aplanissements partiels qui s'étalent sur deux a trois générations dans les akhsass (glacis et cônes rocheux). Le même nombre est valable pour les surfaces d'aplanissement dans les Ait Arkha et pour le plateau bordier est. Le deuxième grand thème se rapporte au modeler d'accumulation du piémont correspondant géographiquement a la plaine méridionale de Tiznit. Il se caractérise par la présence manifeste des formations carbonatées, travertineuses et lacustres. Dans ces dernières, on a pu identifier deux séquences ; la plus ancienne très étendue et attribuée au plio-villafranchien, est connue sous le nom régional de calcaires lacustres de Tiznit. Sa déformation tectonique a permis de quantifier l'orogenèse post-villafranchienne qui s'est avérée faible visible au travers du rejet des failles, héritées du paroxysme hercynien. De même, elle a créé un endoréisme tectonique qui a régi, particulièrement la disposition des terrasses alluviales, tantôt superposées, tantôt imbriquées, et a obstrue l'étendue des cônes de déjection. Au cours de ce travail, les croûtes calcaires ont fait l'objet ; outre l'étude de leurs rapports avec les formes quaternaires ; d'une analyse micromorphologique. Celle-ci révèle la présence d'éléments remanies provenant de formations lacustres incorporés dans les croûtes calcaires (fragments de coquilles) qui prouvent leur origine sédimentaire
47

Pinel-Sauvagnat, Karen. « Modèle flexible pour la recherche d'information dans des corpus de documents semi-structurés ». Toulouse 3, 2005. http://www.theses.fr/2005TOU30071.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
Résumé :
L'information structurelle des documents semi-structurés sert à affiner le concept de granule documentaire. Le but pour les "Systèmes de recherche d'information" est alors de retrouver des unités d'information (et non plus de documents) pertinentes à des requêtes utilisateur. Ceci nous conduit à proposer le modèle XFIRM (XML Flexible Information Retrieval Model) reposant sur: (i) Un modèle de représentation des données générique, permettant de modéliser des documents possédant des structures différentes ; (ii) Un langage de requête flexible, permettant à l'utilisateur d'exprimer son besoin selon divers degrés de précision, en exprimant ou non des conditions sur la structure des documents ; (iii) Un modèle de recherche basée sur une méthode de propagation de la pertinence, ayant pour but de trouver les unités d'information les plus exhaustives et spécifiques à la requête. L'évaluation de notre modèle, grâce au prototype que nous avons développé, montre l'intérêt de nos propositions
Structural information contained in semi-structured documents can be used to focus on relevant information. The aim of Information Retrieval System is then to retrieve relevant information units instead of whole documents. We propose here the XFIRM model (XML Flexible Information Retrieval model), which is based on: (i) a generic data representation model, allowing the modelling of documents having heterogeneous structures; (ii) a flexible query language that allows the expression of users needs according to many precision degrees, by expressing (or not) conditions on the documents structure; (iii) a retrieval model based on a relevance propagation method, which aims at finding the most exhaustive and specific information units answering the query. The interest of our propositions has been shown thanks to the prototype we developed
48

Tollet, Edouard. « Formation et évolution des galaxies en cosmologie : modèles semi-analytiques et simulations hydrodynamiques ». Thesis, Sorbonne Paris Cité, 2018. http://www.theses.fr/2018USPCC179/document.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
Résumé :
Une galaxie est un système complexe au sens où, autant des phénomènes se produisant à l'échelle du milieu interstellaire, comme des explosions de supernovæ ou l'activité d'un trou noir supermassif, que des interactions entre galaxies au sein de groupes ou d'amas, comme l'effeuillage par effet de marée ou par effet de bélier, influencent et conditionnent l'évolution de la galaxie dans son ensemble. Comme les processus œuvrant dans de tels systèmes font intervenir une gamme d'échelle de temps et de distance considérable, allant de l'étoile individuelle aux amas de galaxies tout entier, leur modélisation constitue un immense défi qui ne peut être relevé ni par une approche purement analytique ni par l'entremise de techniques exclusivement numériques.Cette thèse, à l'interface entre modèles semi-analytique et analyse de simulations numériques, se concentre sur l'étude de l'effeuillage des étoiles des galaxies satellites par effet de marée et sur les rétro-actions induites par les supernovæ.Ce manuscrit présente, d'une part, un modèle d'occupation des halos permettant de contraindre la masse d'étoiles perdue par les galaxies satellites depuis leur entrée dans leur groupe ou leur amas ainsi qu'un modèle d'effeuillage impulsif prédisant la masse stellaire arrachée aux satellites. Ce dernier est confronté, par le truchement du modèle d'occupation des halos, aux observations des fonctions de masses des groupes et des amas.Il expose, d'autre part, l'étude des rétro-actions des supernovæ implémenté dans les simulations numériques du projet NIHAO, conduite en séparant en différentes composantes le gaz des simulations et en comptabilisant les échanges entre ces dernières, laquelle a permis de mettre en évidence trois processus distincts par le biais desquels les supernovæ réduisent ou suppriment la formation stellaire.Enfin, il détaille les améliorations techniques et scientifiques apportées au modèle semi-analytique GalICS
A galaxy is a complex system since as many phenomena take place at the scale of the interstellar medium, such as supernovae explosions or the activity of supermassive black holes, as interactions between galaxies within groups or clusters, such as tidal or ram pressure stripping, affect and condition the evolution of the galaxy itself as a whole. Because the processes acting in such systems involve a considerable range of times and distances, going from individual stars to entire clusters of galaxies, they modelling constitutes an immense challenge that cannot be met neither by a purely analytical approach nor by solely numerical technics.This thesis, being at the interface between semi-analytical models and the analysis of numerical simulations, focuses on the study of star stripping in satellite galaxies by tidal effects and on the supernovae induced feedback.This manuscript presents, on one hand, an halo occupation model that allows to constrain the stellar mass lost by satellite galaxies since they entered their group or their cluster, and a model of impulsive stripping that predicts the stellar mass ripped out of satellites. The latter is compared, through the halo occupation model, to the observed mass functions of groups and clusters.It exposes, on the other hand, the study of the supernovae feedback implemented in the numerical simulations of the NIHAO project, performed separating the simulated gas into different components and counting the exchanges that take place between them. This allowed for the highlighting of three distinct processes through which supernovae reduce or suppress their star formation
49

Bordes, Laurent. « Inférence statistique pour des modèles paramétriques et semi-paramétriques : modèles de l'exponentielle multiple, test du Chi-deux, modèles de vie accélérée ». Bordeaux 1, 1996. http://www.theses.fr/1996BOR10649.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
Résumé :
Cette these s'articule autour de trois parties. Dans la premiere partie on applique les procedes classiques de l'estimation sans biais avec variance minimale a une loi parametrique exponentielle multidimensionnelle. On s'interesse plus particulierement aux estimateurs des fonctions de repartition dans diverses situations comme par exemple la censure de type ii. Dans la deuxieme partie on aborde la construction de tests d'ajustement du chi-deux. On propose une statistique de test pour le modele exponentiel evoque ci-dessus ; des simulations illustrent le comportement du test suivant que l'on privilegie les estimateurs du maximum de vraisemblance ou les estimateurs sans biais du minimum de variance. On construit une nouvelle statistique de type chi-deux pour des donnees groupees definies comme etant mal observees. Apres avoir obtenu le comportement asymptotique de la statistique dans le cadre d'une hypothese simple, on en donne une illustration par des simulations et on generalise ces resultats au cas d'hypotheses composites. Cette partie s'acheve par une remarque sur la correction de continuite. Dans la derniere partie de cette these, apres avoir decrit plusieurs modeles semi-parametriques de vie acceleree permettant la prise en compte de variables explicatives et generalisant les modeles classiques de l'analyse de survie, on montre comment obtenir des estimateurs des fonctions de survie associees a un modele dit additif ; enfin, par les techniques mathematiques liees aux processus de comptage on obtient des resultats asymptotiques quant aux comportements des estimateurs, dans le cadre de durees de vie censurees a droite et stratifiees
50

Amer, Mariam. « Using Semi-Empirical Models For Predicting The Luminescence –Structure Relationships in Near-UV Excited Phosphors Activated with Divalent Europium or Mercury-like Cations ». Thesis, Université Clermont Auvergne‎ (2017-2020), 2017. http://www.theses.fr/2017CLFAC069/document.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
Résumé :
La stratégie la plus utilisée aujourd'hui pour la conception de nouveaux matériaux luminescents est basée sur des méthodes d'essais-erreurs. Cependant, ces méthodes peuvent souvent entraîner une consommation d'argent et de temps. En ce sens, un modèle théorique agissant comme un outil prédictif peut servir comme une stratégie alternative. De tels modèles sont également étudiés et utilisés par des scientifiques du monde entier, mais ils sont pour la plupart difficiles à utiliser. Dans ce travail, deux modèles semi-empiriques conviviaux et faciles à utiliser ont été proposés pour la conception de luminophores intégrés dans le développement de technologies importantes, en particulier dans les éclairages à base de LED et les cellules solaires. Ces modèles sont: 1) le modèle de facteur environnemental (EF) basé sur la théorie diélectrique de la liaison chimique proposée par Philips et 2) le modèle de transfert de charge métal-métal (MMCT) utilisées pour trouver des relations entre les propriétés structurelles d'un matériau et sa luminescence. Le modèle EF a été appliqué à la famille des composés AIBIIPO4 (AI = cation monovalent, BII = cation divalent) dopés à Eu2+. Il était capable d'estimer l'énergie du bord d'excitation et d'identifier les sites de dopage à ± 1000 cm-1. Il peut donc être utilisé pour la conception de nouveaux luminophores appartenant à cette famille. Dans la deuxième partie, les deux modèles ont été utilisés pour identifier la nature de la luminescence dans les oxydes dopés à Bi3+. A cet effet, une méthode combinant les modèles motionnés avec les valeurs de Stokes shift a été trouvé fiable. En outre, la a été jugée utile pour expliquer la modification des propriétés luminescentes de YVO4:Bi3+ sous haute pression. Dans la troisième partie, les deux modèles ont été utilisés pour explorer la luminescence des oxydes dopés à Sb3+ par analogie avec Bi3+. Cependant, les résultats n'étaient pas assez bons pour identifier la nature de la luminescence dans ces matériaux. La raison pourrait être liée à la position décentrée du dopant (Sb3+)
The most used strategy for the design of new luminescent materials today is based on trial-error methods. However, these methods may often result in consummation of money and time. In this sense, a theoretical model acting as a predictive tool can serve as an alternative strategy. Such models are also studied and used by scientists around the world but they are mostly difficult to use. In this work, two friendly and easy to use semi-empirical theoretical models were proposed as a criterion for designing phosphors integrated in the development of important technologies especially in LED-based lightings and solar cells. These models are: 1) the environmental factor model (EF) based on the dielectric theory of chemical bonding proposed by Philips and 2) the metal to metal charge transfer (MMCT) model by Boutinaud that were both used for the purpose of finding relationships between the structural properties of a material and its luminescence. The EF model was applied on the family of AIBIIPO4 (AI= monovalent cation, BII= divalent cation) compounds doped with Eu2+. It was able to estimate the excitation edge energy and to identify the doping sites within uncertainty of ± 1000 cm-1. It can therefore, be used for the design of new phosphors belonging to this family. In a second part, both models were used to identify the nature of luminescence in Bi3+-doped oxides. For this purpose, a method combining the mentioned models along with the values of the Stokes shift was found reliable. In addition, the method was found useful to explain the change in luminescent properties of YVO4:Bi3+ under high pressure. In the third part, the two models were used to explore the luminescence of Sb3+-doped oxides by analogy with Bi3+. However, the results were not good enough to identify the nature of luminescence in these materials. The reason could be related to the off-centered position of the dopant (Sb3+)

Vers la bibliographie