To see the other types of publications on this topic, follow the link: Échantillonage adaptatif.

Dissertations / Theses on the topic 'Échantillonage adaptatif'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 41 dissertations / theses for your research on the topic 'Échantillonage adaptatif.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Zhong, Anruo. "Machine learning and adaptive sampling to predict finite-temperature properties in metallic materials at the atomic scale." Electronic Thesis or Diss., université Paris-Saclay, 2024. http://www.theses.fr/2024UPASP107.

Full text
Abstract:
Les propriétés et le comportement des matériaux dans des conditions extrêmes sont essentiels pour les systèmes énergétiques tels que les réacteurs de fission et de fusion. Cependant, prédire avec précision les propriétés des matériaux à haute température reste un défi. Les mesures directes de ces propriétés sont limitées par les instruments expérimentaux, et les simulations à l'échelle atomique basées sur des champs de force empiriques sont souvent peu fiables en raison d'un manque de précision. Ce problème peut être résolu à l'aide de techniques d'apprentissage statistique, qui ont récemment vu leur utilisation exploser en science des matériaux. Les champs de force construits par apprentissage statistique atteignent le degré de précision des calculs ab initio ; cependant, leur mise en œuvre dans les méthodes d'échantillonnage est limitée par des coûts de calcul élevés, généralement supérieurs de plusieurs ordres de grandeur à ceux des champs de force traditionnels. Pour surmonter cette limitation, deux objectifs sont poursuivis dans cette thèse : (i) développer des champs de force par apprentissage statistique avec un meilleur compromis précision-efficacité et (ii) créer des méthodes accélérées d'échantillonnage de l'énergie libre afin de faciliter l'utilisation de champs de force d'apprentissage statistique coûteux en termes de calcul. Pour le premier objectif, nous améliorons la construction des champs de force d'apprentissage statistique en nous concentrant sur trois facteurs clés : la base de données, le descripteur de l'environnement atomique local et le modèle de régression. Dans le cadre de la régression par processus gaussien, nous proposons et optimisons des descripteurs basés sur des noyaux échantillonnés par la transformée de Fourier ainsi que de nouvelles méthodes de sélection de points épars pour la régression par noyau. Pour le deuxième objectif, nous développons un schéma d'échantillonnage bayésien rapide et robuste pour estimer l'énergie libre anharmonique, qui est cruciale pour comprendre les effets de la température sur les solides cristallins, à l'aide d'une méthode de force de biais adaptative améliorée. Cette méthode effectue une intégration thermodynamique à partir d'un système de référence harmonique, où les instabilités numériques associées aux fréquences nulles sont éliminées. La méthode d'échantillonnage proposée améliore considérablement la vitesse de convergence et la précision globale. Nous démontrons l'efficacité de la méthode améliorée en calculant les dérivées de second ordre de l'énergie libre, telles que les constantes élastiques, avec une rapidité plusieurs centaines de fois supérieure à celle des méthodes standard. Cette approche permet de prédire les propriétés thermodynamiques du tungstène et des alliages à haute entropie Ta-Ti-V-W à des températures qui ne peuvent être étudiées expérimentalement, jusqu'à leur point de fusion, avec une précision ab initio grâce à l'utilisation de champs de force construits par apprentissage statistique. Une extension de cette méthode permet l'échantillonnage d'un état métastable spécifique sans transition entre différents bassins d'énergie, fournissant ainsi l'énergie libre de formation et de liaison d'une configuration défectueuse. Ce développement aide à expliquer le mécanisme derrière l'observation des cavités dans le tungstène, mécanisme qui ne peut pas être expliqué par les calculs ab initio existants. Le profil d'énergie libre des lacunes dans le système Ta-Ti-V-W est également calculé pour la première fois. Enfin, nous validons l'application de cette méthode d'échantillonnage de l'énergie libre aux liquides. La précision et l'efficacité numérique du cadre de calcul proposé, qui combine des champs de force d'apprentissage statistique et des méthodes d'échantillonnage améliorées, ouvrent de nombreuses possibilités pour la prédiction fiable des propriétés des matériaux à température finie
The properties and behaviors of materials under extreme conditions are essential for energy systems such as fission and fusion reactors. However, accurately predicting the properties of materials at high temperatures remains challenging. Direct measurements of these properties are constrained by experimental instrument limitations, and atomic-scale simulations based on empirical force fields are often unreliable due to a lack of accuracy. This problem can be addressed using machine learning techniques, which have recently become widely used in materials research. Machine learning force fields achieve the accuracy of ab initio calculations; however, their implementation in sampling methods is limited by high computational costs, typically several orders of magnitude greater than those of traditional force fields. To overcome this limitation, this thesis has two objectives: (i) developing machine learning force fields with a better accuracy-efficiency trade-off, and (ii) creating accelerated sampling methods to facilitate the use of computationally expensive machine learning force fields and accurately estimate free energy. For the first objective, we enhance the construction of machine learning force fields by focusing on three key factors: the database, the descriptor of local atomic environments, and the regression model. Within the framework of Gaussian process regression, we propose and optimize descriptors based on Fourier-sampled kernels and novel sparse points selection methods for kernel regression. For the second objective, we develop a fast and robust Bayesian sampling scheme for estimating the fully anharmonic free energy, which is crucial for understanding temperature effects in crystalline solids, utilizing an improved adaptive biasing force method. This method performs a thermodynamic integration from a harmonic reference system, where numerical instabilities associated with zero frequencies are screened off. The proposed sampling method significantly improves convergence speed and overall accuracy. We demonstrate the efficiency of the improved method by calculating the second-order derivatives of the free energy, such as the elastic constants, which are computed several hundred times faster than with standard methods. This approach enables the prediction of the thermodynamic properties of tungsten and Ta-Ti-V-W high-entropy alloys at temperatures that cannot be investigated experimentally, up to their melting point, with ab initio accuracy by employing accurate machine learning force fields. An extension of this method allows for the sampling of a specified metastable state without transitions between different energy basins, thereby providing the formation and binding free energies of defective configurations. This development helps to explain the mechanism behind the observation of voids in tungsten, which cannot be explained by existing ab initio calculations. The free energy profile of vacancies in the Ta-Ti-V-W system is also computed for the first time. Finally, we validate the application of this free energy sampling method to liquids. The accuracy and numerical efficiency of the proposed computational framework, which combines machine learning force fields and enhanced sampling methods, opens up numerous possibilities for the reliable prediction of finite-temperature material properties
APA, Harvard, Vancouver, ISO, and other styles
2

Sedki, Mohammed. "Échantillonnage préférentiel adaptatif et méthodes bayésiennes approchées appliquées à la génétique des populations." Phd thesis, Université Montpellier II - Sciences et Techniques du Languedoc, 2012. http://tel.archives-ouvertes.fr/tel-00769095.

Full text
Abstract:
Cette thèse propose et étudie deux techniques d'inférence bayésienne dans les modèles où la vraisemblance possède une composante latente. Dans ce contexte, la vraisemblance d'un jeu de données observé est l'intégrale de la vraisemblance dite complète sur l'espace de la variable latente. On s'intéresse aux cas où l'espace de la variable latente est de très grande dimension et comporte des directions de différentes natures (discrètes et continues), ce qui rend cette intégrale incalculable. Le champs d'application privilégié de cette thèse est l'inférence dans les modèles de génétique des populations. Pour mener leurs études, les généticiens des populations se basent sur l'information génétique extraite des populations du présent et représente la variable observée. L'information incluant l'histoire spatiale et temporelle de l'espèce considérée est inaccessible en général et représente la composante latente. Notre première contribution dans cette thèse suppose que la vraisemblance peut être évaluée via une approximation numériquement coûteuse. Le schéma d'échantillonnage préférentiel adaptatif et multiple (AMIS pour Adaptive Multiple Importance Sampling) de Cornuet et al. nécessite peu d'appels au calcul de la vraisemblance et recycle ces évaluations. Cet algorithme approche la loi a posteriori par un système de particules pondérées. Cette technique est conçue pour pouvoir recycler les simulations obtenues par le processus itératif (la construction séquentielle d'une suite de lois d'importance). Dans les nombreux tests numériques effectués sur des modèles de génétique des populations, l'algorithme AMIS a montré des performances numériques très prometteuses en terme de stabilité. Ces propriétés numériques sont particulièrement adéquates pour notre contexte. Toutefois, la question de la convergence des estimateurs obtenus par cette technique reste largement ouverte. Dans cette thèse, nous montrons des résultats de convergence d'une version légèrement modifiée de cet algorithme. Sur des simulations, nous montrons que ses qualités numériques sont identiques à celles du schéma original. Dans la deuxième contribution de cette thèse, on renonce à l'approximation de la vraisemblance et on supposera seulement que la simulation suivant le modèle (suivant la vraisemblance) est possible. Notre apport est un algorithme ABC séquentiel (Approximate Bayesian Computation). Sur les modèles de la génétique des populations, cette méthode peut se révéler lente lorsqu'on vise une approximation précise de la loi a posteriori. L'algorithme que nous proposons est une amélioration de l'algorithme ABC-SMC de Del Moral et al. que nous optimisons en nombre d'appels aux simulations suivant la vraisemblance, et que nous munissons d'un mécanisme de choix de niveaux d'acceptations auto-calibré. Nous implémentons notre algorithme pour inférer les paramètres d'un scénario évolutif réel et complexe de génétique des populations. Nous montrons que pour la même qualité d'approximation, notre algorithme nécessite deux fois moins de simula- tions par rapport à la méthode ABC avec acceptation couramment utilisée.
APA, Harvard, Vancouver, ISO, and other styles
3

Sedki, Mohammed Amechtoh. "Échantillonnage préférentiel adaptatif et méthodes bayésiennes approchées appliquées à la génétique des populations." Thesis, Montpellier 2, 2012. http://www.theses.fr/2012MON20041/document.

Full text
Abstract:
Dans cette thèse, on propose des techniques d'inférence bayésienne dans les modèles où la vraisemblance possède une composante latente. La vraisemblance d'un jeu de données observé est l'intégrale de la vraisemblance dite complète sur l'espace de la variable latente. On s'intéresse aux cas où l'espace de la variable latente est de très grande dimension et comportes des directions de différentes natures (discrètes et continues), ce qui rend cette intégrale incalculable. Le champs d'application privilégié de cette thèse est l'inférence dans les modèles de génétique des populations. Pour mener leurs études, les généticiens des populations se basent sur l'information génétique extraite des populations du présent et représente la variable observée. L'information incluant l'histoire spatiale et temporelle de l'espèce considérée est inaccessible en général et représente la composante latente. Notre première contribution dans cette thèse suppose que la vraisemblance peut être évaluée via une approximation numériquement coûteuse. Le schéma d'échantillonnage préférentiel adaptatif et multiple (AMIS pour Adaptive Multiple Importance Sampling) de Cornuet et al. [2012] nécessite peu d'appels au calcul de la vraisemblance et recycle ces évaluations. Cet algorithme approche la loi a posteriori par un système de particules pondérées. Cette technique est conçue pour pouvoir recycler les simulations obtenues par le processus itératif (la construction séquentielle d'une suite de lois d'importance). Dans les nombreux tests numériques effectués sur des modèles de génétique des populations, l'algorithme AMIS a montré des performances numériques très prometteuses en terme de stabilité. Ces propriétés numériques sont particulièrement adéquates pour notre contexte. Toutefois, la question de la convergence des estimateurs obtenus parcette technique reste largement ouverte. Dans cette thèse, nous montrons des résultats de convergence d'une version légèrement modifiée de cet algorithme. Sur des simulations, nous montrons que ses qualités numériques sont identiques à celles du schéma original. Dans la deuxième contribution de cette thèse, on renonce à l'approximation de la vraisemblance et onsupposera seulement que la simulation suivant le modèle (suivant la vraisemblance) est possible. Notre apport est un algorithme ABC séquentiel (Approximate Bayesian Computation). Sur les modèles de la génétique des populations, cette méthode peut se révéler lente lorsqu'on vise uneapproximation précise de la loi a posteriori. L'algorithme que nous proposons est une amélioration de l'algorithme ABC-SMC de DelMoral et al. [2012] que nous optimisons en nombre d'appels aux simulations suivant la vraisemblance, et que nous munissons d'un mécanisme de choix de niveauxd'acceptations auto-calibré. Nous implémentons notre algorithme pour inférer les paramètres d'un scénario évolutif réel et complexe de génétique des populations. Nous montrons que pour la même qualité d'approximation, notre algorithme nécessite deux fois moins de simulations par rapport à laméthode ABC avec acceptation couramment utilisée
This thesis consists of two parts which can be read independently.The first part is about the Adaptive Multiple Importance Sampling (AMIS) algorithm presented in Cornuet et al.(2012) provides a significant improvement in stability and Effective Sample Size due to the introduction of the recycling procedure. These numerical properties are particularly adapted to the Bayesian paradigm in population genetics where the modelization involves a large number of parameters. However, the consistency of the AMIS estimator remains largely open. In this work, we provide a novel Adaptive Multiple Importance Sampling scheme corresponding to a slight modification of Cornuet et al. (2012) proposition that preserves the above-mentioned improvements. Finally, using limit theorems on triangular arrays of conditionally independant random variables, we give a consistensy result for the final particle system returned by our new scheme.The second part of this thesis lies in ABC paradigm. Approximate Bayesian Computation has been successfully used in population genetics models to bypass the calculation of the likelihood. These algorithms provide an accurate estimator by comparing the observed dataset to a sample of datasets simulated from the model. Although parallelization is easily achieved, computation times for assuring a suitable approximation quality of the posterior distribution are still long. To alleviate this issue, we propose a sequential algorithm adapted fromDel Moral et al. (2012) which runs twice as fast as traditional ABC algorithms. Itsparameters are calibrated to minimize the number of simulations from the model
APA, Harvard, Vancouver, ISO, and other styles
4

Bonneau, Mathieu. "Échantillonnage adaptatif optimal dans les champs de Markov, application à l'échantillonnage d'une espèce adventice." Toulouse 3, 2012. http://thesesups.ups-tlse.fr/1909/.

Full text
Abstract:
Ce travail de thèse propose deux contributions: (i) la formalisation et la résolution approchée du problème d'échantillonnage adaptatif optimal dans les champs de Markov et (ii) la modélisation du problème d'échantillonnage d'une espèce adventice au sein d'une parcelle cultivée et la conception de stratégies d'échantillonnage adaptatives de cette espèce. Pour le premier point, nous avons d'abord formulé le problème du choix d'une stratégie d'échantillonnage adaptative optimale comme un Processus Décisionnel de Markov (PDM) à horizon fini. Nous avons ensuite proposé un algorithme de résolution approchée de tout PDM à horizon fini dont le modèle est connu. Cet algorithme, nommé Least Square Dynamic Programming (LSDP), combine les concepts de programmation dynamique et d'apprentissage par renforcement. Il a ensuite été adapté pour la conception de stratégies d'échantillonnage adaptatives pour tout type de champ de Markov et tout type de coût d'observation. En pratique, l'algorithme LSDP permet une résolution approchée de problèmes d'échantillonnage de plus grande taille qu'avec la plupart des algorithmes classiques d'apprentissage par renforcement. Pour le deuxième point, nous avons d'abord modélisé la répartition spatiale d'une espèce adventice à l'aide des champs de Markov. Un modèle de coût d'échantillonnage d'une espèce adventice a également été proposé. Ces deux modèles ont ensuite été utilisés pour concevoir de nouvelles stratégies d'échantillonnage adaptatives d'une espèce. Une étude sur données réelles a démontré la supériorité des stratégies adaptatives sur des stratégies statiques, classiquement utilisées en échantillonnage adventice
This work is divided into two parts: (i) the theoretical study of the problem of adaptive sampling in Markov Random Fields (MRF) and (ii) the modeling of the problem of weed sampling in a crop field and the design of adaptive sampling strategies for this problem. For the first point, we first modeled the problem of finding an optimal sampling strategy as a finite horizon Markov Decision Process (MDP). Then, we proposed a generic algorithm for computing an approximate solution to any finite horizon MDP with known model. This algorithm, called Least-Squared Dynamic Programming (LSDP), combines the concepts of dynamic programming and reinforcement learning. It was then adapted to compute adaptive sampling strategies for any type of MRF distributions and observations costs. An experimental evaluation of this algorithm was performed on simulated problems. For the second point, we first modeled the weed spatial repartition in the MRF framework. Second, we have built a cost model adapted to the weed sampling problem. Finally, both models were used together to design adaptive sampling strategies with the LSDP algorithm. Based on real world data, these strategies were compared to a simple heuristic and to static sampling strategies classically used for weed sampling
APA, Harvard, Vancouver, ISO, and other styles
5

Oudot, Steve. "Echantillonnage et maillage de surfaces avec garanties." Palaiseau, Ecole polytechnique, 2005. http://www.theses.fr/2005EPXX0060.

Full text
Abstract:
Dans cette thèse, nous introduisons le concept d'e-échantillon lâche, qui peut être vu comme une version faible de la notion d'e-échantillon. L'avantage majeur des e-échantillons lâches sur les e-échantillons classiques est qu'ils sont plus faciles à vérifier et à construire. Plus précisément, vérifier si un ensemble fini de points est un e-échantillon lâche revient à regarder si les rayons d'un nombre fini de boules sont suffisamment petits. Quand la surface S est lisse, nous montrons que les e-échantillons sont des e-échantillons lâches et réciproquement, à condition que e soit suffisamment petit. Il s'ensuit que les e-échantillons lâches offrent les mêmes garanties opologiques et géométriques que les e-échantillons. Nous étendons ensuite nos résultats au cas où la surface échantillonnée est non lisse en introduisant une nouvelle grandeur, appelée rayon Lipschitzien, qui joue un rôle similaire à lfs dans le cas lisse, mais qui s'avère être bien défini et positif sur une plus large classe d'objets. Plus précisément, il caractérise la classe des surfaces Lipschitziennes, qui inclut entre autres toutes les surfaces lisses par morceaux pour lesquelles la variation des normales aux abords des points singuliers n'est pas trop forte. Notre résultat principal est que, si S est une surface Lipschitzienne et E un ensemble fini de points de S tel que tout point de S est à distance de E au plus une fraction du rayon Lipschitzien de S, alors nous obtenons le même type de garanties que dans le cas lisse, à savoir : la triangulation de Delaunay de E restreinte à S est une variété isotope à S et à distance de Hausdorff O(e) de S, à condition que ses facettes ne soient pas trop aplaties. Nous étendons également ce résultat aux échantillons lâches. Enfin, nous donnons des bornes optimales sur la taille de ces échantillons. Afin de montrer l'intérêt pratique des échantillons lâches, nous présentons ensuite un algorithme très simple capable de construire des maillages certifiés de surfaces. Etant donné une surface S compacte, Lipschitzienne et sans bord, et un paramètre positif e, l'algorithme génère un e-échantillon lâche E de S de taille optimale, ainsi qu'un maillage triangulaire extrait de la triangulation de Delaunay de E. Grâce à nos résultats théoriques, nous pouvons garantir que ce maillage triangulaire est une bonne approximation de S, tant sur le plan topologique que géométrique, et ce sous des hypothèses raisonnables sur le paramètre d'entrée e. Un aspect remarquable de l'algorithme est que S n'a besoin d'être connue qu'à travers un oracle capable de détecter les points d'intersection de n'importe quel segment avec la surface. Ceci rend l'algorithme assez générique pour être utilisé dans de nombreux contextes pratiques et sur une large gamme de surfaces. Nous illustrons cette généricité à travers une série d'applications : maillage de surfaces implicites, remaillage de polyèdres, ondage de surfaces inconnues, maillage de volumes.
APA, Harvard, Vancouver, ISO, and other styles
6

Yan, Alix. "Restauration d'images corrigées par optique adaptative pour l'observation astronomique et de satellites : approche marginale par échantillonnage." Electronic Thesis or Diss., Université Paris sciences et lettres, 2023. http://www.theses.fr/2023UPSLO012.

Full text
Abstract:
La restauration d’images corrigées par optique adaptative est particulièrement difficile, du fait de la méconnaissance de la réponse impulsionnelle du système optique (PSF pour point spread function) en plus des difficultés usuelles. Une approche efficace est de marginaliser l’objet en dehors du problème et d’estimer la PSF et les hyper-paramètres (liés à l’objet et au bruit) seuls avant la déconvolution. Des travaux récents ont appliqué cette déconvolution marginale, combinée à un modèle paramétrique de PSF, à des images astronomiques et de satellites. Cette thèse vise à proposer une extension de cette méthode. En particulier, nous utilisons un algorithme Monte-Carlo par chaînes de Markov (MCMC), afin d’inclure des incertitudes sur les paramètres et d'étudier leur corrélation a posteriori. Nous présentons des résultats détaillés obtenus sur des images astronomiques, simulées et expérimentales. Nous présentons également des premiers éléments sur l’ajout d’une contrainte de support sur l’objet
Adaptive-optics-corrected image restoration is particularly difficult, as it suffers from the poor knowledge on the point spread function (PSF). One efficient approach is to marginalize the object out of the problem, and to estimate the PSF and (object and noise) hyper-parameters only before the deconvolution. Recent works have applied this marginal deconvolution, combined to a parametric model for the PSF, to astronomical and satellite images. This thesis aims at extending this previous method, using Markov chain Monte Carlo (MCMC) algorithms. This will enable us to derive uncertainties on the estimates, as well as to study posterior correlation between the parameters. We present detailled results on simulated and experimental, astronomical and satellite data. We also provide elements on the impact of a support constraint on the object
APA, Harvard, Vancouver, ISO, and other styles
7

Kourda, Ferid. "Simulation d'alimentation à découpage sur micro-ordinateur." Lyon, INSA, 1989. http://www.theses.fr/1989ISAL0031.

Full text
Abstract:
En vue du développement industriel d'alimentation continu- continu de 3KW. Nous avons réalisé une maquette avec une structure en demi-pont asymétrique. Pour minimiser les contraintes exercées sur les composants et prévoir les fonctionnements transitoires, nous avons développé un logiciel de simulation spécifique implanté sur micro ordinateur. Nous avons utilisé la discrétisation des équations d'état continu et le calcul de la matrice de transition nous a conduit à porter une attention particulière à la période d'échantillonnage. Sa détermination a pu se faire par le calcul de la valeur propre dominante Puis nous avons comparé les résultats de cette simulation ; incluant la boucle de régulation; avec ceux résultant d'un algorithme obtenu par une autre approche mathématique du problème faisant intervenir la notion nouvelle de "circuit relatif moyen". Nous avons pu observer une très bonne concordance avec les oscillogrammes relevés sur la maquette expérimentale. Cette simulation nous a permis enfin d'élaborer rapidement un prototype industrialisable.
APA, Harvard, Vancouver, ISO, and other styles
8

Burlion, Laurent. "Contribution à l'analyse et à la commande de systèmes non linéaires à commande échantillonnée." Phd thesis, Université Paris Sud - Paris XI, 2007. http://tel.archives-ouvertes.fr/tel-00461750.

Full text
Abstract:
A la frontière des systèmes non linéaires continus et discrets, la classe des systèmes non linéaires à commande échantillonnée est une classe de systèmes à part entière qui a stimulé et stimule toujours de nombreuses recherches. Le sujet est d'autant plus important qu'il a été trop souvent sous estimé au profit de la recherche sur les commandes continues alors que paradoxalement les commandes sont principalement implémentées numériquement sur les applications industrielles actuelles. S'appuyant sur les dernières recherches du domaine, cette thèse se veut à la fois une contribution à l'étude et à la synthèse de lois de commande échantillonnées pour certaines classes de systèmes non linéaires.
APA, Harvard, Vancouver, ISO, and other styles
9

Claisse, Alexandra. "Modèle de reconstruction d'une surface échantillonnée par une méthode de ligne de niveau, et applications." Paris 6, 2009. https://tel.archives-ouvertes.fr/tel-00443640.

Full text
Abstract:
La reconstruction de surface, à partir de données échantillonnées, est un thème de recherche important et très actif depuis quelques années. L'enjeu est de pouvoir générer toute sorte de géométries et de topologies. Le but de ce travail est de trouver une surface régulière Gamma (typiquement de classe C2), passant au plus près de tous les points d'un échantillon V donné, c'est-à-dire telle que la distance euclidienne d(x, Gamma) soit minimale pour tout x dans V. Pour cela, on formule le problème à l'aide d'une équation aux dérivées partielles qui va caractériser l'évolution d'une surface Gamma(t). Cette EDP est composée d'un terme d'attraction, qui permet à Gamma(t) d'avancer jusqu'à V, et d'un terme de tension de surface, dont le rôle est de préserver la régularité de Gamma(t) au cours du temps. On montre d'abord que le problème est bien posé, c'est-à-dire que sa solution existe et qu'elle est unique. Cette EDP est ensuite résolue numériquement à l'aide de la méthode des lignes de niveau, et grâce à des schémas numériques spécifiques (avec approximation des dérivées d'ordre un et deux en espace en chaque noeud du maillage), sur des triangulations adaptées et anisotropes (pour améliorer la précision du résultat). D'un point de vue analyse, on montre que ces schémas sont consistants et stables en norme L2. Des exemples d'applications sont présentés pour illustrer l'efficacité de notre approche.
APA, Harvard, Vancouver, ISO, and other styles
10

Claisse, Alexandra. "Modèle de reconstruction d'une surface échantillonnée par un méthode de ligne de niveau, et applications." Phd thesis, Université Pierre et Marie Curie - Paris VI, 2009. http://tel.archives-ouvertes.fr/tel-00443640.

Full text
Abstract:
La reconstruction de surface, à partir de données échantillonnées, est un thème de recherche important et très actif depuis quelques années. L'enjeu est de pouvoir générer toute sorte de géométries et de topologies. Le but de ce travail est de trouver une surface régulière Gamma (typiquement de classe C2), passant au plus près de tous les points d'un échantillon V donné, c'est-à-dire telle que la distance euclidienne d(x, Gamma) soit minimale pour tout x dans V. Pour cela, on formule le problème à l'aide d'une équation aux dérivées partielles qui va caractériser l'évolution d'une surface Gamma(t). Cette EDP est composée d'un terme d'attraction, qui permet à Gamma(t) d'avancer jusqu'à V, et d'un terme de tension de surface, dont le rôle est de préserver la régularité de Gamma(t) au cours du temps. On montre d'abord que le problème est bien posé, c'est-à-dire que sa solution existe et qu'elle est unique. Cette EDP est ensuite résolue numériquement à l'aide de la méthode des lignes de niveau, et grâce à des schémas numériques spécifiques (avec approximation des dérivées d'ordre un et deux en espace en chaque noeud du maillage), sur des triangulations adaptées et anisotropes (pour améliorer la précision du résultat). D'un point de vue analyse, on montre que ces schémas sont consistants et stables en norme L2. Des exemples d'applications sont présentés pour illustrer l'efficacité de notre approche.
APA, Harvard, Vancouver, ISO, and other styles
11

Chiky, Raja. "Résumé de flux de données distribués." Paris, ENST, 2009. https://pastel.hal.science/pastel-00005137.

Full text
Abstract:
Nous considérons dans cette thèse, un environnement distribué décrit par une collection de plusieurs capteurs distants qui envoient des flux de données numériques et unidimensionnelles à un serveur central unique. Ce dernier a un espace de stockage limité mais doit calculer des agrégats, comme des sommes ou des moyennes, à partir des données de tout sous-ensemble de capteurs et sur un large horizon temporel. Deux approches sont étudiées pour construire l'historique des flux de données :(1) Echantillonnage spatial en ne considérant qu'un échantillon aléatoire des sources qu'on observe dans le temps ; (2) Echantillonnage temporel en considérant toutes les sources mais en échantillonnant les instants observés de chaque capteur. Nous proposons une méthode générique et optimisée de construction de résumés à partir de flux de données distribués : à partir des flux de données observés à une période de temps t -1, nous déterminons un modèle de collecte de données à appliquer aux capteurs de la période t. Le calcul des agrégats se base sur l'inférence tatistique dans le cas de l'échantillonnage spatial et sur l'interpolation dans le cas de l'échantillonnage temporel. A notre connaissance, il n'existe pas de méthodes d'interpolation qui estiment les erreurs à tout instant et qui prennent en compte le flux de données ou courbe à interpoler et son intégrale. Nous proposons donc deux approches : la première se base sur le passé des courbes pour l'interpolation (approche naive) ; et la seconde utilise à un processus stochastique pour modéliser l'évolution des courbes (approche stochastique)
In this thesis, we consider a distributed computing environment, describing a collection of multiple remote sensors that feed a unique central server with numeric and uni-dimensional data streams (also called curves). The central server has a limited memory but should be able to compute aggregated value of any subset of the stream sources from a large time horizon including old and new data streams. Two approaches are studied to reduce the size of data : (1) spatial sampling only consider a random sample of the sources observed at every instant ; (2) temporal sampling consider all sources but samples the instants to be stored. In this thesis, we propose a new approach for summarizing temporally a set of distributed data streams : From the observation of what is happening during a period t -1, we determine a data collection model to apply to the sensors for period t. The computation of aggregates involves statistical inference in the case of spatial sampling and interpolation in the case of temporal sampling. To the best of our knowledge, there is no method for estimating interpolation errors at each timestamp that would take into account some curve features such as the knowledge of the integral of the curve during the period. We propose two approaches : one uses the past of the data curve (naive approach) and the other uses a stochastic process for interpolation (stochastic approach)
APA, Harvard, Vancouver, ISO, and other styles
12

Shah, Kashif. "Model adaptation techniques in machine translation." Phd thesis, Université du Maine, 2012. http://tel.archives-ouvertes.fr/tel-00718226.

Full text
Abstract:
Nowadays several indicators suggest that the statistical approach to machinetranslation is the most promising. It allows fast development of systems for anylanguage pair provided that sufficient training data is available.Statistical Machine Translation (SMT) systems use parallel texts ‐ also called bitexts ‐ astraining material for creation of the translation model and monolingual corpora fortarget language modeling.The performance of an SMT system heavily depends upon the quality and quantity ofavailable data. In order to train the translation model, the parallel texts is collected fromvarious sources and domains. These corpora are usually concatenated, word alignmentsare calculated and phrases are extracted.However, parallel data is quite inhomogeneous in many practical applications withrespect to several factors like data source, alignment quality, appropriateness to thetask, etc. This means that the corpora are not weighted according to their importance tothe domain of the translation task. Therefore, it is the domain of the training resourcesthat influences the translations that are selected among several choices. This is incontrast to the training of the language model for which well‐known techniques areused to weight the various sources of texts.We have proposed novel methods to automatically weight the heterogeneous data toadapt the translation model.In a first approach, this is achieved with a resampling technique. A weight to eachbitexts is assigned to select the proportion of data from that corpus. The alignmentscoming from each bitexts are resampled based on these weights. The weights of thecorpora are directly optimized on the development data using a numerical method.Moreover, an alignment score of each aligned sentence pair is used as confidencemeasurement.In an extended work, we obtain such a weighting by resampling alignments usingweights that decrease with the temporal distance of bitexts to the test set. By thesemeans, we can use all the available bitexts and still put an emphasis on the most recentone. The main idea of our approach is to use a parametric form or meta‐weights for theweighting of the different parts of the bitexts. This ensures that our approach has onlyfew parameters to optimize.In another work, we have proposed a generic framework which takes into account thecorpus and sentence level "goodness scores" during the calculation of the phrase‐tablewhich results into better distribution of probability mass of the individual phrase pairs.
APA, Harvard, Vancouver, ISO, and other styles
13

Achibi, Mohamed. "Estimation des probabilités associées aux événements rares aéronautique." Paris 6, 2012. http://www.theses.fr/2012PA066133.

Full text
Abstract:
L'objectif de ce travail est de proposer une nouvelle démarche pour améliorer les méthodes de prévision de durées de vie des pièces mécaniques d'un turboréacteur. Il s'agit d'introduire des modèles probabilistes et des méthodes statistiques dans les analyses mécaniques, afin de prendre en compte les incertitudes sur les paramètres influents sur la durée de vie. Deux sujets très importants sont abordés dans cette thèse. Le premier sujet concerne la modélisation de données stochastiquement dépendantes, que l'on retrouve en entrée du code de calcul de durée de vie. Le second sujet traite de l'estimation de quantiles extrêmes, que l'on est amené à évaluer en sortie du code de calcul. Des paramètres en entrée du code de calcul (longueur et profondeur d'un défaut) sont représentés par des réalisations de variables aléatoires. Ceci demande une modélisation de leur dépendance, indépendamment de leur loi marginale. La théorie des copules et les modèles de Cox fournissent le cadre naturel de cette étude. De fait, nous avons développé un nouveau modèle pour estimer la structure de dépendance d'un vecteur décrivant les propriétés géométriques des défauts. Les copules vont permettre de modéliser la dépendance proprement dite entre les composantes du vecteur, tandis que le modèle de Cox va permettre de modéliser l'effet d'une covariable sur les lois marginales de ces composantes. Dans cette thèse, on s'intéresse aussi aux surfaces de réponse ou métamodèles permettant de simplifier les codes de calcul de durée de vie. On aborde la question des plans d'expériences et on s'intéresse plus particulièrement à la régression quantile. L'accent est mis sur l'estimation des quantiles extrêmes
The target of this PhD dissertation is to propose a new approach to improve the forecasting methods with regards to the lifespan of the mechanical parts of a turbofan engine. Probability models and statistical methods are introduced into the mechanical analyses to take into account the uncertainties on the parameters that influence the lifespan. Two very important subjects are developed in this doctoral thesis. The first one is about modeling the dependence of data, that are the inputs of the lifespan’s numerical simulator. The second subject handles with the estimation of extreme quantiles, that we estimate from the outputs of the simulation. The input parameters for a deterministic mechanical computation (length and depth of a defect) are represented by realizations of random variables. This asks for a modeling of their dependence, independently of their marginal law. The theory of copulas and the Cox’s models supply the natural frame of this study. So, we developed a new model to estimate the dependence’s structure of a vector describing the geometrical properties of defects. Copulas permit to model the dependence between the components of the vector, whereas the Cox’s model permits to model the effect of a covariable on the marginal laws of these components. In this PhD dissertation, we are also interested in response surfaces or surrogate models allowing to simplify the lifespan’s mechanical simulation. Designs of experiments are considered and we are more focused in the quantile regression. An emphasis is made on the estimation of the extreme quantiles
APA, Harvard, Vancouver, ISO, and other styles
14

Gandar, Benoît. "Apprentissage actif pour l'approximation de variétés." Phd thesis, Université Blaise Pascal - Clermont-Ferrand II, 2012. http://tel.archives-ouvertes.fr/tel-00954409.

Full text
Abstract:
L'apprentissage statistique cherche à modéliser un lien fonctionnel entre deux variables X et Y à partir d'un échantillon aléatoire de réalisations de (X,Y ). Lorsque la variable Y prend un nombre binaire de valeurs, l'apprentissage s'appelle la classification (ou discrimination en français) et apprendre le lien fonctionnel s'apparente à apprendre la frontière d'une variété dans l'espace de la variable X. Dans cette thèse, nous nous plaçons dans le contexte de l'apprentissage actif, i.e. nous supposons que l'échantillon d'apprentissage n'est plus aléatoire et que nous pouvons, par l'intermédiaire d'un oracle, générer les points sur lesquels l'apprentissage de la variété va s'effectuer. Dans le cas où la variable Y est continue (régression), des travaux précédents montrent que le critère de la faible discrépance pour générer les premiers points d'apprentissage est adéquat. Nous montrons, de manière surprenante, que ces résultats ne peuvent pas être transférés à la classification. Dans ce manuscrit, nous proposons alors le critère de la dispersion pour la classification. Ce critère étant difficile à mettre en pratique, nous proposons un nouvel algorithme pour générer un plan d'expérience à faible dispersion dans le carré unité. Après une première approximation de la variété, des approximations successives peuvent être réalisées afin d'affiner la connaissance de celle-ci. Deux méthodes d'échantillonnage sont alors envisageables : le " selective sampling " qui choisit les points à présenter à un oracle parmi un ensemble fini de candidats et l'" adaptative sampling " qui permet de choisir n'importe quels points de l'espace de la variable X. Le deuxième échantillonnage peut être vu comme un passage à la limite du premier. Néanmoins, en pratique, il n'est pas raisonnable d'utiliser cette méthode. Nous proposons alors un nouvel algorithme basé sur le critère de dispersion, menant de front exploitation et exploration, pour approximer une variété.
APA, Harvard, Vancouver, ISO, and other styles
15

Zgheib, Rawad. "Algorithmes adaptatifs d'identification et de reconstruction de processus AR à échantillons manquants." Phd thesis, Université Paris Sud - Paris XI, 2007. http://tel.archives-ouvertes.fr/tel-00273585.

Full text
Abstract:
On souhaite reconstruire en ligne des signaux à échantillons manquants en utilisant une approche paramétrique. On propose alors des algorithmes adaptatifs d'identification et de reconstruction de processus AR à échantillons manquants. On s'intéresse premièrement à l'extension des algorithmes de gradient au cas des signaux à échantillons manquants. On propose alors deux alternatives à un algorithme existant fondées sur deux autres prédicteurs. Les algorithmes proposés convergent vers une estimation non biaisée des paramètres. Or les algorithmes de gradient souffrent d'une faible vitesse de convergence. Pour cela, on s'intéresse à l'extension de l'algorithme MCR au cas des signaux à échantillons manquants. On utilise alors l'algorithme MCR pseudo-linéaire pour l'identification conjointement avec un filtre de Kalman pour une prédiction optimale du signal au sens des moindres carrés. L'algorithme résultant permet une identification non biaisée des paramètres. De plus, il est rapide et bien adapté à l'identification de processus non stationnaires. Néanmoins, souhaitant contrôler la stabilité du filtre identifié, on s'intéresse ensuite à une identification fondée sur une structure en treillis du filtre. Ainsi, on propose une extension de l'algorithme de Burg adaptatif au cas des signaux à échantillons manquants, en utilisant pour la prédiction un filtre de Kalman. La stabilité du modèle ainsi identifié est garantie. De plus, l'algorithme s'adapte rapidement aux variations des paramètres. Finalement, on propose d'utiliser les algorithmes proposés dans un système à transmission non uniforme. On obtient ainsi l'amélioration simultanée du RSB et du débit de transmission moyen.
APA, Harvard, Vancouver, ISO, and other styles
16

Lopez, David. "Diagrammes de Voronoï et surfaces évolutives." Electronic Thesis or Diss., Université de Lorraine, 2021. http://www.theses.fr/2021LORR0247.

Full text
Abstract:
Dans ce mémoire, nous proposons une technique de remaillage adaptée au suivi de surfaces déformables, typiquement la surface libre d'un liquide. Ce domaine surfacique voit sa géométrie et sa topologie évoluer au cours du temps par déplacement de ces sommets aussi, les éléments constitutifs du maillage (arêtes et facettes) sont tous potentiellement contractés ou dilatés et requièrent une ré-évaluation. Nous proposons ici d'exploiter une technique de remaillage fondée sur les diagrammes de Voronoï ; ces derniers offrent une une partition de l'espace et, plus particulièrement, du domaine surfacique considéré. Cette décomposition permet entre autre d'optimiser la répartition d'un ensemble d'échantillons sur ce domaine et d'en définir une triangulation remarquable : la triangulation de Delaunay restreinte. Cette solution de remaillage n'est efficace que lorsque certaines conditions sont réunies. Aussi, le premier travail a consisté à mettre en œuvre une technique d'analyse des configurations de cellules permettant d'assurer que l'objet dual répond à l'appellation de variété triangulée et qu'il est homéomorphe au domaine initial. Pour les configurations moins favorables, nous avons développé une méthode de correction automatique du partitionnement ; elle s'appuie sur la précédente analyse et propose une nouvelle approximation minimale pour chacune des cellules mise en défaut. Un second travail propose d'améliorer la proximité entre le maillage initial et le résultat du remaillage : il s'agit de minimiser l'erreur d'approximation qui est ici exprimée sous forme de différences locales de volume. Ces deux outils sont associés à une stratégie d'échantillonnage qui permet de maintenir une densité d'échantillonnage constante tout au long de la déformation et propose ainsi une nouvelle méthode de suivi d'une surface libre pour la simulation d'écoulement de fluides incompressibles
In this paper, we propose to address the problem of tracking a deformable surface, typically the free surface of a liquid. This surface domain sees its geometry and topology evolve over time by displacement of its vertices, so the elements of the mesh (edges and facets) are all potentially contracted or expanded and require a remeshing. To do so, we propose to use a technique based on restricted Voronoi diagrams. Voronoi diagrams offer a space partition and, more particularly, a partition of the surface domain considered that allow us, among other things, to optimize the distribution of a sample set among the domain and to define a specific triangulation : the restricted Delaunay triangulation.This remeshing solution is only effective when certain conditions are met. Therefore, the first work consisted in implementing an analysis of the restricted cell configurations to ensure that the dual object meets the definition of triangulated manifold and that it is homeomorphic to the initial domain. For less favourable configurations, we have developed a method to correct the partition automatically. Based on the previous analysis, the method proposes a new minimal approximation for each of the faulty cells, thus we can limit the number of vertices used, contrary to the classical Delaunay refinement.A second work proposes to improve the proximity between the initial mesh and the result of the remeshing : new vertex positions are finely adjusted to minimize the approximation error which is here expressed as local volume differences.These tools are combined with a sampling strategy that allows to maintain a constant sampling density throughout the deformation and thus we propose a new method to track free surfaces in incompressible fluid simulation
APA, Harvard, Vancouver, ISO, and other styles
17

Poisson, Antonin. "Spectroscopie adaptative à deux peignes de fréquences." Phd thesis, Université Paris Sud - Paris XI, 2013. http://tel.archives-ouvertes.fr/tel-00852102.

Full text
Abstract:
La spectroscopie par transformation de Fourier par peignes de fréquences femtosecondes tire parti d'un interféromètre sans partie mobile. Il mesure les interférences entre deux peignes de fréquences, sources lasers à large bande spectrale constituée de raies fines et équidistantes. Il améliore significativement le temps de mesure et la limite de résolution spectrale des spectromètres de Fourier. Néanmoins, les conditions sur la stabilité à court terme des peignes ne peuvent pas être remplies par les techniques d'asservissement classique. Jusqu'à présent, aucun spectre de qualité n'a pu être mesuré avec un très faible temps d'acquisition. Cette thèse présente le développement d'une méthode de correction en temps réel capable de compenser les fluctuations résiduelles des peignes et de restituer des spectres sans artefacts. La méthode, analogique, ne nécessite aucun asservissement ou traitement informatique a posteriori. Ses performances sont démontrées dans le proche infrarouge (1,5 µm) et le visible (520 nm), à l'aide d'oscillateurs femtosecondes fibrés. Des spectres moléculaires couvrant 12 THz sont mesurés en 500 µs à limite de résolution Doppler. Ils sont en excellent accord avec les données de la littérature. Pour la première fois, le plein potentiel de la spectroscopie de Fourier par peignes de fréquences est démontré. Le domaine de l'infrarouge moyen est la région de prédilection de la spectroscopie moléculaire car la plupart des molécules y présentent des absorptions fortes et caractéristiques. Étendre la spectroscopie par peignes de fréquences à cette région est donc l'objectif suivant à atteindre. Dans cette optique, un peigne émettant autour de 3 µm est caractérisé. Il est basé sur la conversion non-linéaire par différence de fréquences d'un oscillateur à erbium élargi spectralement par une fibre fortement non-linéaire.
APA, Harvard, Vancouver, ISO, and other styles
18

Lassoued, Imed. "Adaptive monitoring and management of Internet traffic." Nice, 2011. http://www.theses.fr/2011NICE4110.

Full text
Abstract:
Les mesures de trafic permettent aux opérateurs de réseaux de réaliser plusieurs applications de surveillances telles que l’ingénierie du trafic, l’approvisionnement des ressources, la gestion de réseaux, et la détection d’anomalies. Cependant, les solutions existantes présentent plusieurs problèmes, à savoir le problème de scalabilité, le problème de la détection des changements dans le trafic du réseau, et le problème de la perte d’informations significatives sur le trafic. La principale conséquence de cette tendance est un désaccord entre les solutions de surveillance existantes et les besoins croissants des applications de gestion des réseaux ; Ainsi, l’amélioration des applications de surveillance présente un défi majeur et un énorme engagement pour les grands réseaux. Ce défi devient plus difficile avec la croissance remarquable de l’infrastructure d’Internet, l’hétérogénéité des comportements des utilisateurs et l’émergence d’une large variété d’applications réseau. Dans ce contexte, nous présentons la conception d’une architecture centralisée adaptative qui fournit une visibilité sur l’ensemble du réseau grâce à un système cognitif de surveillance de son trafic. Nous considérons les exigences suivantes dans la conception de notre système de surveillance de réseaux. La première souligne le fait que les vendeurs ne veulent pas mettre en œuvre des outils d’échantillonnage sophistiqués qui donne nt de bons résultats dans certaines circonstances. Ils veulent mettre en œuvre des solutions simples et robustes qui sont bien décrites par une certaine norme (i. E. S’Flow, NetFlow). Ainsi, nous décidons de concevoir une nouvelle solution qui utilise des techniques de surveillance existantes et tente de coordonner les responsabilités entre les différents moniteurs afin d’améliorer la précision globale des mesures. La deuxième exigence stipule que le système de surveillance devrait fournir des informations générales sur l’ensemble du réseau0. Pour ce faire, nous adaptons une approche centralisée qui offre une visibilité sur l’ensemble du réseau. Notre système combine les différentes mesures locales en vue d’atteindre le compromis entre l’amélioration de la précision des résultats et le respect des contraintes de surveillance. Et la dernière exigence indique que le système de surveillance devrait régler le problème de scalabilité et respecter les contraintes de surveillance. Par conséquent, notre système repose sur un module de configuration de réseau qui fournit une solution réactive capable de détecter les changements dans les conditions du réseau et d’adapter la configuration des moniteurs à l’état du réseau. De plus, ils évitent les détails et les oscillations inutiles dans le trafic afin de garder la consommation des ressources dans les limites souhaitées. Le module de reconfiguration du réseau utilise des outils locaux de surveillance et ajuste automatiquement et périodiquement leurs taux d’échantillonnage afin de coordonner les responsabilités et répartir le travail entre les différents moniteurs
Traffic measurement allows network operators to achieve several purposes such as traffic engineering, network resources provisioning and management, accounting and anomaly detection. However, existing solutions suffer from different problems namely the problem of scalability to high speeds, the problem of detecting changes in network conditions, and the problem of missing meaningful information in the traffic. The main consequence of this trend is an inherent disagreement between existing monitoring solutions and the increasing needs of management applications. Hence, increasing monitoring capabilities presents one of the most challenging issues and an enormous undertaking in a large network. This challenge becomes increasingly difficult to meet with the remarkable growth of the Internet infrastructure, the increasing heterogeneity of user’s behaviour and the emergence of a wide variety of network applications. In this context, we present the design of an adaptive centralized architecture that provides visibility over the entire network through a net-work-wide cognitive monitoring system. We consider the following important requirements in the design of our network-wide monitoring system. The first underscores the fact that the vendors do not want to implement sophisticated sampling schemes that give good results under certain circumstances. They want to implement simple and robust solutions that are well described by some form of a standard (i. E. SFlow, NetFlow). Thus, we decide to design a new solution that deals with existing monitoring techniques and tries to coordinate responsibilities between the different monitors in order to improve the overall accuracy. The second requirement stipulates that the monitoring system should provide general information of the entire network. To do so, we adopt a centralized approach that provides visibility over the entire network. Our system investigates the different local measurements and correlates their results in order to address the trade off between accuracy and monitoring constraints. Ands the last requirement indicates that the monitoring system should address the scalability problem and respect monitoring constraints. To this end, our system relies on a network configuration module hat provides a responsive solution able to detect changes in network conditions and adapt the different sampling rates to network state. At the same time it avoids unnecessary details and oscillations in the traffic in order to keep the resulting overhead within the desired bounds. The network reconfiguration module deals with local monitoring tools and adjusts automatically and periodically sampling rates in order to coordinate responsibilities and distribute the work between the different monitors
APA, Harvard, Vancouver, ISO, and other styles
19

Soare, Marta. "Sequential resources allocation in linear stochastic bandits." Thesis, Lille 1, 2015. http://www.theses.fr/2015LIL10147/document.

Full text
Abstract:
Dans cette thèse nous étudions des problèmes d'allocation de ressources dans des environnements incertains où un agent choisit ses actions séquentiellement. Après chaque pas, l'environnement fournit une observation bruitée sur la valeur de l'action choisie et l'agent doit utiliser ces observations pour allouer ses ressources de façon optimale. Dans le cadre le plus classique, dit modèle du bandit à plusieurs bras (MAB), on fait l'hypothèse que chaque observation est tirée aléatoirement d'une distribution de probabilité associée à l'action choisie et ne fournit aucune information sur les valeurs espérées des autres actions disponibles dans l'environnement. Ce modèle a été largement étudié dans la littérature et plusieurs stratégies optimales ont été proposées, notamment pour le cas où le but de l'agent est de maximiser la somme des observations. Ici, nous considérons une version du MAB où les actions ne sont plus indépendantes, mais chaque observation peut être utilisée pour estimer les valeurs de l'ensemble des actions de l'environnement. Plus précisément, nous proposons des stratégies d'allocation de ressources qui sont efficaces et adaptées à un environnement caractérisé par une structure linéaire globale. Nous étudions notamment les séquences d'actions qui mènent à : (i) identifier la meilleure action avec une précision donnée et en utilisant un nombre minimum d'observations, ou (ii) maximiser la précision d'estimation des valeurs de chaque action. De plus, nous étudions les cas où les observations provenant d'un algorithme de bandit dans un environnement donné peuvent améliorer par la suite la performance de l'agent dans d'autres environnements similaires
This thesis is dedicated to the study of resource allocation problems in uncertain environments, where an agent can sequentially select which action to take. After each step, the environment returns a noisy observation of the value of the selected action. These observations guide the agent in adapting his resource allocation strategy towards reaching a given objective. In the most typical setting of this kind, the stochastic multi-armed bandit (MAB), it is assumed that each observation is drawn from an unknown probability distribution associated with the selected action and gives no information on the expected value of the other actions. This setting has been widely studied and optimal allocation strategies were proposed to solve various objectives under the MAB assumptions. Here, we consider a variant of the MAB setting where there exists a global linear structure in the environment and by selecting an action, the agent also gathers information on the value of the other actions. Therefore, the agent needs to adapt his resource allocation strategy to exploit the structure in the environment. In particular, we study the design of sequences of actions that the agent should take to reach objectives such as: (i) identifying the best value with a fixed confidence and using a minimum number of pulls, or (ii) minimizing the prediction error on the value of each action. In addition, we investigate how the knowledge gathered by a bandit algorithm in a given environment can be transferred to improve the performance in other similar environments
APA, Harvard, Vancouver, ISO, and other styles
20

Mabika, Bienvenu. "Analyse bayésienne des données de survie : Application à des essais cliniques en pharmacologie." Rouen, 1999. http://www.theses.fr/1999ROUES100.

Full text
Abstract:
Cette thèse est composée de deux parties distinctes : la première relève des procédures bayésiennes des données de survie et la seconde la méthodologie d'application des procédures bayésiennes. Nous étudions dans la première partie les méthodes bayésiennes permettant de comparer deux distributions de survie de Weibull censurées. Les résultats sont présentés en utilisant l'hypothèse selon laquelle les paramètres de formes sont quelconques. Pour une classe de loi a priori convenablement choisie nous donnons les distributions a posteriori, les intervalles à plus fortes densités a posteriori (HPD) des paramètres d'intérêts nécessaires pour montrer soit la supériorité soit l'équivalence. Nous introduisons ensuite un estimateur de Bayes de la fonction de survie à un temps quelconque. Nous proposons et étudions un test bayésian pour l'équivalence de deux fonctions de survie dans le cas des modèles à taux de risques constant et non constant. Un algorithme utilisant la méthode de simulation de l'échantillonnage de Gibbs est donné pour résoudre ce problème de test. En outre, une étude prédictive est abordée pour interrompre l'étude de façon précoce. Les densités prédictives sont utilisées pour obtenir une règle d'arrêt dans le cas des analyses intermédiaires. Comme dans toute étude clinique, nous proposons deux approches de détermination du nombre de patients nécessaire en utilisant les critères usuels : l'une est basée sur la simulation des densités prédictives, l'autre sur les approximations normales des densités prédictives. Enfin, nous généralisons le modèle de Weibull par une approche bayésienne avec les variables explicatives qui est très proche du modèle semi-paramétrique de Cox. La seconde partie est consacrée aux exemples d'applications à des données d'essais cliniques pour comparer deux médicaments ou pour déterminer le nombre de patients nécessaire
Two distinct sections constitute this thesis : the first section deals with the Bayesian procedures of survival data and the second with the applying procedures of Bayesian methods. The methods are illustrated with some examples of a mortality study in cardiologic and cancer research where a new treatment is compared to a standard treatment. In the first section, we study the Bayesian framework allowing to compare two Weibull survival distributions with unequal shape parameters, in the case of right censored survival data obtained for two independent samples is considered. For a family of appropriate priors we give the posterior distributions and the highest posterior density intervals about relevant parameters allowing to search for a conclusion of clinical superiority of the treatment. We introduce a Bayesian estimator of the survival function. We propose and study a Bayesian testing for equivalence of two survival functions and an algorithm using Gibbs sampling allowed to resolve this test. Moreover the predictive distributions are used to obtain an early stopping rule in the case of interim analyses. On using some criteria of determination of number patient we propose two approaches. We generalize the Weibull model by a Bayesian approach with covariates, this approach is like to Cox model. The methods inference used there do appeal to Markov Chain Monte Carlo methods
APA, Harvard, Vancouver, ISO, and other styles
21

Chamroo, Afzal. "Contribution à l'étude des Systèmes à Fonctionnement par Morceaux : Application à l'Identification en Ligne et à la commande en Temps Réel." Phd thesis, Université des Sciences et Technologie de Lille - Lille I, 2006. http://tel.archives-ouvertes.fr/tel-00374158.

Full text
Abstract:
Ce travail de recherche concerne une approche nouvelle d'identification et de commande de processus réels. Les travaux sont fondés sur une classe particulière de systèmes qui possèdent des propriétés hybrides et qui ont une dynamique caractérisée par un fonction-nement par morceaux. Ces systèmes permettent de développer des outils particulièrement adaptés à une architecture temps réel. Le mémoire consacre un chapitre au concept de système hybride et à l'origine et à la nature des systèmes à fonctionnement par morceaux (SFM). Les autres chapitres fournissent la mise en œuvre théorique et pratique de nouvel-les méthodes d'identification et de commande utilisant les SFM et donc adaptées au temps réel. L'identification en ligne, assurée par une méthode appelée « clonage », est régie par un algorithme adaptatif qui garantit une convergence rapide. La commande, quant à elle, vise à réaliser la poursuite échantillonnée d'une trajectoire consigne par l'état d'un système linéaire, même dans le cas où le seul retour possible correspond à l'information provenant d'un capteur numérique qui délivre la sortie du système sous forme retardée et échantillonnée. Chaque méthode est fournie avec une introduction permettant de la situer par rapport à l'existant, une formalisation mathématique et des exemples de simulation et d'implantation temps réel.
APA, Harvard, Vancouver, ISO, and other styles
22

Dubourg, Vincent. "Méta-modèles adaptatifs pour l'analyse de fiabilité et l'optimisation sous contrainte fiabiliste." Phd thesis, Université Blaise Pascal - Clermont-Ferrand II, 2011. http://tel.archives-ouvertes.fr/tel-00697026.

Full text
Abstract:
Cette thèse est une contribution à la résolution du problème d'optimisation sous contrainte de fiabilité. Cette méthode de dimensionnement probabiliste vise à prendre en compte les incertitudes inhérentes au système à concevoir, en vue de proposer des solutions optimales et sûres. Le niveau de sûreté est quantifié par une probabilité de défaillance. Le problème d'optimisation consiste alors à s'assurer que cette probabilité reste inférieure à un seuil fixé par les donneurs d'ordres. La résolution de ce problème nécessite un grand nombre d'appels à la fonction d'état-limite caractérisant le problème de fiabilité sous-jacent. Ainsi,cette méthodologie devient complexe à appliquer dès lors que le dimensionnement s'appuie sur un modèle numérique coûteux à évaluer (e.g. un modèle aux éléments finis). Dans ce contexte, ce manuscrit propose une stratégie basée sur la substitution adaptative de la fonction d'état-limite par un méta-modèle par Krigeage. On s'est particulièrement employé à quantifier, réduire et finalement éliminer l'erreur commise par l'utilisation de ce méta-modèle en lieu et place du modèle original. La méthodologie proposée est appliquée au dimensionnement des coques géométriquement imparfaites soumises au flambement.
APA, Harvard, Vancouver, ISO, and other styles
23

Hmida, Hmida. "Extension des Programmes Génétiques pour l’apprentissage supervisé à partir de très larges Bases de Données (Big data)." Thesis, Paris Sciences et Lettres (ComUE), 2019. http://www.theses.fr/2019PSLED047.

Full text
Abstract:
Dans cette thèse, nous étudions l'adaptation des Programmes Génétiques (GP) pour surmonter l'obstacle du volume de données dans les problèmes Big Data. GP est une méta‐heuristique qui a fait ses preuves pour les problèmes de classification. Néanmoins, son coût de calcul est un frein à son utilisation avec les larges bases d’apprentissage. Tout d'abord, nous effectuons une revue approfondie enrichie par une étude comparative expérimentale des algorithmes d'échantillonnage utilisés avec GP. Puis, à partir des résultats de l'étude précédente, nous proposons quelques extensions basées sur l'échantillonnage hiérarchique. Ce dernier combine des algorithmes d'échantillonnage actif à plusieurs niveaux et s’est prouvé une solution appropriée pour mettre à l’échelle certaines techniques comme TBS et pour appliquer GP à un problème Big Data (cas de la classification des bosons de Higgs). Par ailleurs, nous formulons une nouvelle approche d'échantillonnage appelée échantillonnage adaptatif, basée sur le contrôle de la fréquence d'échantillonnage en fonction du processus d'apprentissage, selon les schémas fixe, déterministe et adaptatif. Enfin, nous présentons comment transformer une implémentation GP existante (DEAP) en distribuant les évaluations sur un cluster Spark. Nous démontrons comment cette implémentation peut être exécutée sur des clusters à nombre de nœuds réduit grâce à l’échantillonnage. Les expériences montrent les grands avantages de l'utilisation de Spark pour la parallélisation de GP
In this thesis, we investigate the adaptation of GP to overcome the data Volume hurdle in Big Data problems. GP is a well-established meta-heuristic for classification problems but is impaired with its computing cost. First, we conduct an extensive review enriched with an experimental comparative study of training set sampling algorithms used for GP. Then, based on the previous study results, we propose some extensions based on hierarchical sampling. The latter combines active sampling algorithms on several levels and has proven to be an appropriate solution for sampling techniques that can’t deal with large datatsets (like TBS) and for applying GP to a Big Data problem as Higgs Boson classification.Moreover, we formulate a new sampling approach called “adaptive sampling”, based on controlling sampling frequency depending on learning process and through fixed, determinist and adaptive control schemes. Finally, we present how an existing GP implementation (DEAP) can be adapted by distributing evaluations on a Spark cluster. Then, we demonstrate how this implementation can be run on tiny clusters by sampling.Experiments show the great benefits of using Spark as parallelization technology for GP
APA, Harvard, Vancouver, ISO, and other styles
24

Bouhlel, Mohamed Amine. "Optimisation auto-adaptative en environnement d’analyse multidisciplinaire via les modèles de krigeage combinés à la méthode PLS." Thesis, Toulouse, ISAE, 2016. http://www.theses.fr/2016ESAE0002/document.

Full text
Abstract:
Les turbomachines aéronautiques sont composées de plusieurs roues aubagées dont la fonction estde transférer l’énergie de l’air au rotor. Les roues aubagées des modules compresseur et turbine sontdes pièces particulièrement sensibles car elles doivent répondre à des impératifs de performanceaérodynamique, de tenue mécanique, de tenue thermique et de performance acoustique. L’optimisation aéro-méca-acoustique ou aéro-thermo-mécanique des aubages consiste à chercher, pourun ensemble de formes aérodynamiques paramétrées (par plusieurs dizaines de variables), celleassurant le meilleur compromis entre la performance aérodynamique du moteur et la satisfactionde plusieurs dizaines de contraintes souvent contradictoires. Cette thèse introduit une méthode d’optimisation basée sur les métamodèles et adaptée à la grande dimension pour répondre à la problématique industrielle des aubages. Les contributions de cettethèse portent sur deux aspects : le développement de modèles de krigeage, et l’adaptation d’unestratégie d’optimisation pour la gestion du grand nombre de variables et de contraintes.La première partie de ce travail traite des modèles de krigeage. Nous avons proposé une nouvelleformulation du noyau de covariance permettant de réduire le nombre de paramètres du modèleafin d’accélérer sa construction. Une des limitations connues du modèle de krigeage concernel’estimation de ses paramètres. Cette estimation devient de plus en plus difficile lorsque nousaugmentons la dimension du phénomène à approcher. En particulier, la base de données nécessitedavantage de points et par conséquent la matrice de covariance du modèle du krigeage est de plusen plus coûteuse à inverser. Notre approche consiste à réduire le nombre de paramètres à estimer en utilisant la méthode de régression des moindres carrés partiels (PLS pour Partial Least Squares). Cette méthode de réduction dimensionnelle fournit des informations sur la relation linéaire entre les variables d’entrée et la variable de sortie. Ces informations ont été intégrées dans les noyaux du modèle de krigeage tout en conservant les propriétés de symétrie et de positivité des noyaux. Grâce à cette approche, la construction de ces nouveaux modèles appelés KPLS est très rapide étant donné le faible nombre de paramètres nécessaires à estimer. La validation de ces modèles KPLS sur des cas test académiques ou industriels a démontré leur qualité de prédiction équivalente voire même meilleure que celle des modèles de krigeage classiques. Dans le cas de noyaux de covariance de type exponentiel, laméthode KPLS peut être utilisée pour initialiser les paramètres du krigeage classique, afin d’accélérerla convergence de l’estimation des paramètres du modèle. La méthode résultante, notée KPLS+K, a permis d’améliorer la qualité des modèles dans le cas de fonctions fortement multimodales. La deuxième contribution de la thèse a consisté à développer une stratégie d’optimisation globale sous contraintes pour la grande dimension, en s’appuyant sur les modèles KPLS ou les modèlesKPLS+K. En effet, nous avons étendu la méthode d’optimisation auto-adaptative connue dans lalittérature sous le nom "Efficient Global Optimisation, EGO" pour gérer les problèmes d’optimisationsous contraintes en grande dimension. Différents critères d’enrichissement adaptatifs ont pu êtreexplorés. Cette stratégie a permis de retrouver l’optimum global sur des problèmes académiquesjusqu’à la dimension 50. La méthode proposée a été confrontée à deux types de problèmes industriels, le cas test MOPTA issu de l’industrie automobile (124 variables d’entrée et 68 fonctions contraintes) et le cas test Snecma des aubes de turbomachines (50 variables d’entrée et 31 fonctions contraintes). Les résultats ont permis de montrer la validité de la démarche ainsi que les limites de la méthode pour une application dans un cadre industriel
Aerospace turbomachinery consists of a plurality of blades. Their main function is to transfer energybetween the air and the rotor. The bladed disks of the compressor are particularly important becausethey must satisfy both the requirements of aerodynamic performance and mechanical resistance.Mechanical and aerodynamic optimization of blades consists in searching for a set of parameterizedaerodynamic shape that ensures the best compromise solution between a set of constraints.This PhD introduces a surrogate-based optimization method well adapted to high-dimensionalproblems. This kind of high-dimensional problem is very similar to the Snecma’s problems. Ourmain contributions can be divided into two parts : Kriging models development and enhancementof an existing optimization method to handle high-dimensional problems under a large number ofconstraints. Concerning Kriging models, we propose a new formulation of covariance kernel which is able toreduce the number of hyper-parameters in order to accelerate the construction of the metamodel.One of the known limitations of Kriging models is about the estimation of its hyper-parameters.This estimation becomes more and more difficult when the number of dimension increases. Inparticular, the initial design of experiments (for surrogate modelling construction) requires animportant number of points and therefore the inversion of the covariance matrix becomes timeconsuming. Our approach consists in reducing the number of parameters to estimate using the Partial LeastSquares regression method (PLS). This method provides information about the linear relationshipbetween input and output variables. This information is integrated into the Kriging model kernelwhile maintaining the symmetry and the positivity properties of the kernels. Thanks to this approach,the construction of these new models called KPLS is very fast because of the low number of newparameters to estimate. When the covariance kernel used is of an exponential type, the KPLS methodcan be used to initialize parameters of classical Kriging models, to accelerate the convergence of theestimation of parameters. The final method, called KPLS+K, allows to improve the accuracy of themodel for multimodal functions. The second main contribution of this PhD is to develop a global optimization method to tacklehigh-dimensional problems under a large number of constraint functions thanks to KPLS or KPLS+Kmethod. Indeed, we extended the self adaptive optimization method called "Efficient Global Optimization,EGO" for high-dimensional problems under constraints. Several enriching criteria have been tested. This method allows to estimate known global optima on academic problems up to 50 inputvariables. The proposed method is tested on two industrial cases, the first one, "MOPTA", from the automotiveindustry (with 124 input variables and 68 constraint functions) and the second one is a turbineblade from Snecma company (with 50 input variables and 31 constraint functions). The results showthe effectiveness of the method to handle industrial problems.We also highlight some importantlimitations
APA, Harvard, Vancouver, ISO, and other styles
25

Rolland, Thierry. "Adaptation des méthodes d'échantillonnage et d'analyse en rivières méditerranéennes du Sud-est de la France : étude de l'hétérogénéité spatio-temporelle de l'épilithon et de la dérive algale." Aix-Marseille 3, 1995. http://www.theses.fr/1995AIX30071.

Full text
Abstract:
La phytocenose algale des rivieres mediterraneennes est soumise aux aleas de leur regime hydrologique tres irregulier. L'inadequation des methodes d'echantillonnage des algues dans les ecosystemes lotiques nous a conduit a developper et definir une methode adaptee aux rivieres du sud-est de la france a partir d'un decoupage fin de sections transversales ou sont etudies simultanement d'une part, les principaux parametres hydrodynamiques, hydrauliques et morphologiques et, d'autre part, les algues epilithiques et en derive. L'asse, riviere des alpes de haute provence a ete choisie comme riviere de reference pour tester cette methode. La repartition des algues epilithiques, a l'echelle intra-stationnelle, est fonction en premier lieu de la vitesse du courant (v) et secondairement, de la profondeur (p) ainsi que de la composition du substrat. Le rapport v/p permet de caracteriser les secteurs preferentiels de prospection. La derive algale, composee d'algues epilithiques, se repartit selon deux gradients de concentration en fonction du rayon hydraulique du transect. La validation de cette methode est basee sur l'etude de neuf autres rivieres mediterraneennes d'altitude et de plaine, naturelles ou amenagees et coulant sur substrats calcaire ou cristallin. Ces recherches permettent de proposer une methode d'echantillonnage des algues epilithiques et en derive adaptee aux cours d'eau du sud-est de la france. Pour les algues epilithiques, la vitesse du courant, la profondeur, le rapport v/p et la composition du substrat sont les quatre facteurs a prendre simultanement en consideration (les classes de chaque parametre different entre les rivieres d'altitude et de plaine). Pour les algues en derive, le protocole consiste a prelever 5 echantillons (un a chaque rive et aux trois niveaux de profondeur sur une verticale de mesures situee dans l'axe du chenal). L'influence des principales perturbations naturelles (nature du substrat, variations nycthemerales, stabilite du milieu sur le peuplement epilithique en ete, pression de broutage par les invertebres benthiques, recolonisation apres une crue) ont ete analysee. L'estimation de la qualite des eaux est realisee par l'analyse comparee entre les parametres physico-chimiques et biotiques
APA, Harvard, Vancouver, ISO, and other styles
26

Gong, Li. "On-demand Development of Statistical Machine Translation Systems." Thesis, Paris 11, 2014. http://www.theses.fr/2014PA112338/document.

Full text
Abstract:
La traduction automatique statistique produit des résultats qui en font un choix privilégié dans la plupart des scénarios de traduction assistée par ordinateur.Cependant, le développement de ces systèmes de haute performance implique des traitements très coûteux sur des données à grande échelle. De nouvelles données sont continuellement disponibles,alors que les systèmes construits de manière standard sont statiques, ce qui rend l'utilisation de nouvelles données couteuse car les systèmes sont typiquement reconstruits en intégralité.En outre, le processus d'adaptation des systèmes de traduction est généralement fondé sur un corpus de développement et est effectué une fois pour toutes. Dans cette thèse, nous proposons un cadre informatique pour répondre à ces trois problèmes conjointement. Ce cadre permet de développer des systèmes de traduction à la demande avec des mises à jour incrémentales et permet d’adapter les systèmes construits à chaque nouveau texte à traduire.La première contribution importante de cette thèse concerne une nouvelle méthode d'alignement sous-phrastique qui peut aligner des paires de phrases en isolation. Cette propriété permet aux systèmes de traduction de calculer des informations à la demande afin d'intégrer de façon transparente de nouvelles données disponibles sans re-entraînement complet des systèmes.La deuxième contribution importante de cette thèse est de proposer l'intégration de stratégies d'échantillonnage contextuel pour sélectionner des exemples de traduction à partir de corpus à grande échelle sur la base de leur similarité avec le texte à traduire afin d obtenir des tables de traduction adaptées
Statistical Machine Translation (SMT) produces results that make it apreferred choice in most machine-assisted translation scenarios.However,the development of such high-performance systems involves thecostly processing of very large-scale data. New data are constantly madeavailable while the constructed SMT systems are usually static, so thatincorporating new data into existing SMT systems imposes systemdevelopers to re-train systems from scratch. In addition, the adaptationprocess of SMT systems is typically based on some available held-outdevelopment set and is performed once and for all.In this thesis, wepropose an on-demand framework that tackles the 3 above problemsjointly, to enable to develop SMT systems on a per-need with incremental updates and to adapt existing systems to each individual input text.The first main contribution of this thesis is devoted to a new on-demandword alignment method that aligns training sentence pairs in isolation.This property allows SMT systems to compute information on a per-needbasis and to seamlessly incorporate new available data into an exiting SMT system without re-training the whole systems. The second maincontribution of this thesis is the integration of contextual sampling strategies to select translation examples from large-scale corpora that are similar to the input text so as to build adapted phrase tables
APA, Harvard, Vancouver, ISO, and other styles
27

Gabillon, Victor. "Algorithmes budgétisés d'itérations sur les politiques obtenues par classification." Thesis, Lille 1, 2014. http://www.theses.fr/2014LIL10032/document.

Full text
Abstract:
Cette thèse étudie une classe d'algorithmes d'apprentissage par renforcement (RL), appelée « itération sur les politiques obtenues par classification » (CBPI). Contrairement aux méthodes standards de RL, CBPI n'utilise pas de représentation explicite de la fonction valeur. CBPI réalise des déroulés (des trajectoires) et estime la fonction action-valeur de la politique courante pour un nombre limité d'états et d'actions. En utilisant un ensemble d'apprentissage construit à partir de ces estimations, la politique gloutonne est apprise comme le produit d'un classificateur. La politique ainsi produite à chaque itération de l'algorithme, n'est plus définie par une fonction valeur (approximée), mais par un classificateur. Dans cette thèse, nous proposons de nouveaux algorithmes qui améliorent les performances des méthodes CBPI existantes, spécialement lorsque le nombre d’interactions avec l’environnement est limité. Nos améliorations se portent sur les deux limitations de CBPI suivantes : 1) les déroulés utilisés pour estimer les fonctions action-valeur doivent être tronqués et leur nombre est limité, créant un compromis entre le biais et la variance dans ces estimations, et 2) les déroulés sont répartis de manière uniforme entre les états déroulés et les actions disponibles, alors qu'une stratégie plus évoluée pourrait garantir un ensemble d'apprentissage plus précis. Nous proposons des algorithmes CBPI qui répondent à ces limitations, respectivement : 1) en utilisant une approximation de la fonction valeur pour améliorer la précision (en équilibrant biais et variance) des estimations, et 2) en échantillonnant de manière adaptative les déroulés parmi les paires d'état-action
This dissertation is motivated by the study of a class of reinforcement learning (RL) algorithms, called classification-based policy iteration (CBPI). Contrary to the standard RL methods, CBPI do not use an explicit representation for value function. Instead, they use rollouts and estimate the action-value function of the current policy at a collection of states. Using a training set built from these rollout estimates, the greedy policy is learned as the output of a classifier. Thus, the policy generated at each iteration of the algorithm, is no longer defined by a (approximated) value function, but instead by a classifier. In this thesis, we propose new algorithms that improve the performance of the existing CBPI methods, especially when they have a fixed budget of interaction with the environment. Our improvements are based on the following two shortcomings of the existing CBPI algorithms: 1) The rollouts that are used to estimate the action-value functions should be truncated and their number is limited, and thus, we have to deal with bias-variance tradeoff in estimating the rollouts, and 2) The rollouts are allocated uniformly over the states in the rollout set and the available actions, while a smarter allocation strategy could guarantee a more accurate training set for the classifier. We propose CBPI algorithms that address these issues, respectively, by: 1) the use of a value function approximation to improve the accuracy (balancing the bias and variance) of the rollout estimates, and 2) adaptively sampling the rollouts over the state-action pairs
APA, Harvard, Vancouver, ISO, and other styles
28

Al-Tahir, Ali Abdul Razzaq. "Synthèse d’observateur d'état et commande non-linéaire à retour de sortie des systèmes électriques." Caen, 2016. http://www.theses.fr/2016CAEN2070.

Full text
Abstract:
Le travail de recherche effectué dans cette thèse a été principalement consacré aux problèmes l’état d’observation et de commande des systèmes électrique sans capteurs. Trois contributions principales ont été faites en utilisant le concept de grand gain et retour de sortie commande adaptative non linéaire pour UPS en ligne. Cette thèse traite la synthèse d’observateur pour les systèmes non linéaires avec des applications sur le machine synchrones à aimant permanent et machine asynchrone a doublé alimentation. En particulier, nous nous intéressons essentiellement aux contraintes effet d’échantillonnage et d’estimation des variables d'état mécaniques et magnétiques non mesurées. La première contribution est un observateur du type grand gain qui permet de réaliser une estimation relativement précise des variables d’état m´mécaniques et magnétiques des moteurs synchrones à partir des mesures disponibles des courants et tensions statoriques. Nous traitons la synthèse d’observateur à grand gain dynamique pour une classe de systèmes non linéaires globalement Lipschitz à sorties échantillonnées. Dans la deuxième contribution, nous avons proposé un roman non standard HGO pour non- injective relation de retour de sortie application à vitesse variable en fonction aux aérogénérateurs asynchrones. Pendant ce temps, un modèle de système réduit est analysé, fourni par le test d'observabilité pour vérifier qu'il est possible observateur d'état de synthèse pour le contrôle sensorless. Dans la dernière contribution, un observateur adaptatif pour les états et l'estimation des paramètres sont désigné pour une classe de l'état - affins des systèmes l'application à la rétroaction de sortie commande adaptative non linéaire de triphasés AC/DC convertisseur de puissance pour UPS en ligne. Fondamentalement, le problème concentré sur cascade régulateur adaptatif non linéaire qui est développé fait usage Lyapunov théorie. Les paramètres incertitudes sont traités par les lois de contrôle pratiques dans backstepping techniques de conception avec une capacité d'adaptation
The research work developed in this thesis has been mainly devoted to the observation and sensorless control problems of electrical systems. Three major contributions have been carried out using the high - gain concept and output feedback adaptive nonlinear control for online UPS. In this thesis, we dealt with synthesis of sampled high - gain observers for nonlinear systems application to PMSMs and DFIGs. We particularly focus on two constraints: sampling effect and tracking unmeasured mechanical and magnetic state variables. The first contribution consists in a high gain observer design that performs a relatively accurate estimation of both mechanical and magnetic state variable using the available measurements on stator currents and voltages of PMSM. We propose a global exponential observer having state predictor for a class of nonlinear globally Lipschitz system. In second contribution, we proposed a novel non – standard HGO design for non-injective feedback relation application to variable speed DFIG based WPGS. Meanwhile, a reduced system model is analyzed, provided by observability test to check is it possible synthesis state observer for sensorless control. In last contribution, an adaptive observer for states and parameters estimation are designed for a class of state - affine systems application to output feedback adaptive nonlinear control of three-phase AC/DC boost power converter for online UPS systems. Basically, the problem focused on cascade nonlinear adaptive controller that is developed making use Lyapunov theory. The parameters uncertainties are processed by the practical control laws under backstepping design techniques with capacity of adaptation
APA, Harvard, Vancouver, ISO, and other styles
29

Carpentier, Alexandra. "De l'échantillonage optimal en grande et petite dimension." Thesis, Lille 1, 2012. http://www.theses.fr/2012LIL10041/document.

Full text
Abstract:
Pendant ma thèse, j’ai eu la chance d’apprendre et de travailler sous la supervision de mon directeur de thèse Rémi, et ce dans deux domaines qui me sont particulièrement chers. Je veux parler de la Théorie des Bandits et du Compressed Sensing. Je les voie comme intimement liés non par les méthodes mais par leur objectif commun: l’échantillonnage optimal de l’espace. Tous deux sont centrés sur les manières d’échantillonner l’espace efficacement : la Théorie des Bandits en petite dimension et le Compressed Sensing en grande dimension. Dans cette dissertation, je présente la plupart des travaux que mes co-auteurs et moi-même avons écrit durant les trois années qu’a duré ma thèse
During my PhD, I had the chance to learn and work under the great supervision of my advisor Rémi (Munos) in two fields that are of particular interest to me. These domains are Bandit Theory and Compressed Sensing. While studying these domains I came to the conclusion that they are connected if one looks at them trough the prism of optimal sampling. Both these fields are concerned with strategies on how to sample the space in an efficient way: Bandit Theory in low dimension, and Compressed Sensing in high dimension. In this Dissertation, I present most of the work my co-authors and I produced during the three years that my PhD lasted
APA, Harvard, Vancouver, ISO, and other styles
30

Pastel, Rudy. "Estimation de probabilités d'évènements rares et de quantiles extrêmes : applications dans le domaine aérospatial." Phd thesis, Université Européenne de Bretagne, 2012. http://tel.archives-ouvertes.fr/tel-00728108.

Full text
Abstract:
Les techniques dédiées aux évènements rares sont d'un grand intérêt pour l'industrie aérospatiale en raison des larges sommes qui peuvent être perdues à cause des risques associés à des probabilités infimes. Cette thèse se concentre la recherche d'outils probabilistes capables d'estimer les probabilités d'évènements rares et les quantiles extrêmes associés à un système boîte noire dont les entrées sont des variables aléatoires. Cette étude est faite au travers de deux cas issus de l'industrie. Le premier est l'estimation de la probabilité de collision entre les satellites Iridium et Cosmos. La Cross-Entropy (CE), le Non-parametric Adaptive Importance Sampling (NAIS) et une technique de type Adaptive Splitting (AST) sont comparés. Au cours de la comparaison, une version améliorée de NAIS est conçue. Au contraire du NAIS qui doit être initialisé avec une variable aléatoire qui génère d'emblée des événements rares, le NAIS adaptatif (ANAIS) peut être initialisé avec la variable aléatoire d'origine du système et n'exige donc pas de connaissance a priori. Le second cas d'étude est l'estimation de la zone de sécurité vis-à-vis de la chute d'un booster de fusée. Bien que les quantiles extrêmes puissent être estimés par le bais de ANAIS ou AST, ils apparaissent comme inadaptés à une distribution spatiale. A cette fin, le Minimum Volume Set (MVS) est choisi dans la littérature. L'estimateur Monte Carlo (MC) de MVS n'étant pas adapté à l'estimation d'un MVS de niveau extrême, des estimateurs dédiés sont conçus à partir d'ANAIS et d'AST. Ces deux derniers surpassent l'estimateur de type MC.
APA, Harvard, Vancouver, ISO, and other styles
31

Castellanos, Silva Abraham. "Compensation adaptative par feedback pour le contrôle actif de vibrations en présence d’incertitudes sur les paramètres du procédé." Thesis, Grenoble, 2014. http://www.theses.fr/2014GRENT050/document.

Full text
Abstract:
Dans cette thèse, nous proposons des solutions pour la conception de systèmes de contrôle actif de vibration robustes (AVC). Le manuscrit de thèse comporte deux grandes parties.Dans la première, les problèmes d'incertitude paramétrique dans les systèmes de contrôle actif de vibration sont étudiés. En plus des incertitudes sur la fréquence des perturbations, nous avons trouvé que la présence de zéros complexes peu amortis soulevait des problèmes de conception difficiles, même pour des systèmes et des modèles parfaitement connus. Dans ce contexte, nous avons proposé des solutions pour le problème linéaire. Une procédure améliorée d'identification en boucle fermée a été développée pour réduire les incertitudes dans l'identification de ces zéros. Pour traiter les incertitudes sur la perturbation, l'adaptation de la fréquence est de toute façon incontournable.La seconde partie est consacrée au développement et/ou à l'amélioration de deux algorithmes, désormais classiques, de compensation par feedback adaptatif direct, fondés sur la paramétrisation de Youla-Kučera. Le premier résulte de l'amélioration d'un précédent travail (Landau et al., 2005) ; les contributions concernent la synthèse du contrôleur central robuste et l'utilisation optionnelle de la surparamétrisation du filtre Q-FIR (réponse à temps fini) avec pour effet de minimiser l'effet « waterbed » sur la fonction de sensibilité de sortie. Le second algorithme présente une structure hybride directe/indirecte qui utilise un filtre Q-IIR (à temps de réponse infini). Les améliorations sont dues principalement au dénominateur du filtre, obtenu à partir d'une estimation de la perturbation. Cette solution permet également de simplifier la conception du contrôleur central.Les algorithmes ont été testés, comparés et validés sur un procédé réel du laboratoire Gipsa-lab, dans le cadre d'un benchmark international
In this thesis, solutions for the design of robust Active Vibration Control (AVC) systems are presented. The thesis report is composed of two main parts.In the first part of the thesis uncertainties issues in Active Vibration Control systems are examined. In addition of the uncertainties on the frequency of the disturbances it has been found that the presence of low damped complex zeros raise difficult design problems even if plant and models are perfectly known. Solutions for the linear control in this context have been proposed. In order to reduce the uncertainties in the identification of low complex zeros and improved closed loop identification procedure has been developed. To handle the uncertainties on the disturbance frequency adaptation has any way to be used.The second part is concerned with the further development and/or the improvement of the now classical direct adaptive feedback compensation algorithms using Youla Kucera controller parametrization. Two new solutions have been proposed in this context. The first one results from the improvement of a previous work (Landau et al., 2005). The contributions are a new robust central controller design to the optional use of over parameterization of the Q-FIR filter which aims to ensure a small waterbed effect for the output sensitivity function and therefore reducing the unwanted amplification. The second algorithm presents a mixed direct/indirect structure which uses a Q-IIR filter. The improvements are mainly the effect of the Q filter denominator, which is obtained from a disturbance identification. This solution in addition drastically simplifies the design of the central controller.The algorithms have been tested, compared and validated on an international benchmark setup available at the Control System Department of GIPSA-Lab, Grenoble, France
APA, Harvard, Vancouver, ISO, and other styles
32

Scheidt, Céline. "Analyse statistique d'expériences simulées : Modélisation adaptative de réponses non régulières par krigeage et plans d'expériences, Application à la quantification des incertitudes en ingénierie des réservoirs pétroliers." Phd thesis, Université Louis Pasteur (Strasbourg) (1971-2008), 2006. https://publication-theses.unistra.fr/public/theses_doctorat/2006/SCHEIDT_Celine_2006.pdf.

Full text
Abstract:
La quantification des incertitudes est essentielle à la bonne maîtrise de la production des réservoirs pétroliers. Ce problème est complexe car l’impact des paramètres incertains sur la production est souvent non-régulier. Du fait du coût important d’une simulation numérique d’écoulement, les méthodes traditionnelles d’analyse de risque sont basées sur un modèle approché du modèle d’écoulement. Ce modèle, construit à partir de plans d’expériences supposant un comportement polynomial de la réponse, ignore les non-régularités. L’objectif de cette thèse est la mise en place d’un formalisme de modélisation de réponses non-régulières. Nous proposons de construire des plans évolutifs afin d’intégrer graduellement les non-régularités. Cette approche est inspirée conjointement de méthodes géostatistiques et de plans d’expériences. En partant d’une surface de réponse initiale, la méthodologie consiste à déterminer itérativement de nouvelles simulations afin d’enrichir le dispositif expérimental et ainsi améliorer l’approximation de la réponse. Différents critères d’ajout de simulations sont proposés. Nous préconisons l’intégration de l’information apportée par les extrema et les points de dérivée partielle nulle de l’approximation. De plus, l’ajout d’information fictive par points pilotes permet une optimisation de la prédictivité de l’approximation ainsi que la détermination de nouveaux points candidats à la simulation. Cette méthodologie originale d’ajustement de surfaces complexes a montré son efficacité, en terme de modélisation comme en terme de réduction du nombre de simulations, notamment pour une quantification d’incertitudes pour deux cas de réservoir pétrolier
Quantification of uncertainty in reservoir performance is an essential phase of oil field evaluation and production. Due to the large number of parameters and the physical complexity of the reservoir, fluid flow models can be computationally time consuming. Traditional uncertainty management is thus routinely performed using proxy models of the fluid flow simulator, following experimental design methodology. However, this approach often ignores the irregularity of the response. The objective of the thesis is to construct non-linear proxy models of the fluid flow simulator. Contrary to classical experimental designs which assume a polynomial behavior of the response, we build evolutive experimental designs to fit gradually the potentially non-linear shape of uncertainty. This methodology combines the advantages of experimental design with geostatistical methods. Starting from an initial trend of the uncertainty, the method determines iteratively new simulations that might bring crucial information to update the estimation of the uncertainty. Four criteria of adding new simulations are proposed. We suggest performing simulation at the extremes and the null derivative points of the approximation in order to better characterize irregularity. In addition, we propose an original way to increase the prior predictivity of the approximation using pilot points. The pilot points are also good candidates for simulation. This methodology allows for an efficient modeling of highly non-linear responses, while reducing the number of simulations compared to latin hypercubes. This work can potentially improve the efficiency in decision making under uncertainty
APA, Harvard, Vancouver, ISO, and other styles
33

Zhu, Boyao. "Identification and metamodeling characterization of singularities in composite, highly dispersive media." Electronic Thesis or Diss., Ecully, Ecole centrale de Lyon, 2024. http://www.theses.fr/2024ECDL0006.

Full text
Abstract:
La surveillance de l'état des structures (SHM) joue un rôle crucial dans de nombreux domaines industriels pour garantir la sécurité, la fiabilité et les performances des structures critiques. Le développement de divers types de capteurs, d'analyseurs de données et de systèmes de communication sans fil permettent de récolter in situ des données attestant de l'état de la structure en temps réel via des modules SHM. Cependant, ces derniers requièrent des bases de données propres à la structure en présence ou pas de défauts de différentes natures et de différents niveaux de gravité. La simulation à base de modèles numériques tels que les modèles éléments finis est souvent utilisée pour construire cette base de données et prédire ainsi les indicateurs de défauts dans les structures. Cette approche est très couteuse lorsque le modèle étudié est complexe, ce qui est souvent le cas comptes tenus de la complexité des structures actuelles.Cette thèse s'inscrit dans ce cadre général. Elle traite du problème de l'obtention efficace de caractéristiques sensibles aux défauts de structures composites complexes. Plus spécifiquement, elle vise à définir et à développer des outils numériques efficaces aidant à la surveillance de structures composites complexes. Dans ce cadre, des approches de réduction de modèle et de métamodélisation basées respectivement sur les méthodes d'éléments finis d'onde (WFE) et de krigeage sont proposées et étudiées. L'objectif principal du présent travail est donc d'évaluer le potentiel de l'utilisation conjointe de la WFE et du krigeage pour prédire efficacement les caractéristiques structurelles et dynamiques de structures composites complexes. Cette efficacité est quantifiée par la précision des prédictions et le coût impliqué. Sur la base des propriétés dynamiques prédites, certains indicateurs (tels que les amplitudes, les fréquences propres et les déphasages) sensibles aux défauts sont définis et exploités pour évaluer l'état de santé des structures considérées. Les études réalisées ont montré que la stratégie proposée, à savoir l'association (WFEM, Krigeage), peut assurer une efficacité intéressante se traduisant par une précision appropriée des prédictions des propriétés structurelles et dynamiques mais en impliquant un coût inférieur à celui des calculs basés sur la méthode WFEM. De plus, la stratégie proposée permet de conserver les mêmes niveaux de sensibilité des propriétés dynamiques aux défauts considérés (fissures et délaminage) avec les niveaux de sévérité associés. La stratégie s'est avérée, par ailleurs, plus efficace lors de l'utilisation du krigeage avec un schéma d'échantillonnage adaptatif et intelligent
Structural health monitoring (SHM) plays a crucial role in many industrial fields to ensure the safety, reliability, and performance of critical structures. The development of various types of sensors, data analysis, and wireless communication systems, enables the collection in situ of data attesting to the real-time state of structures within the framework of SHM modules helping for more accurate and automated decision-making processes. However, the SHM modules require data basis characterizing safe and damaged structures. Simulations based on numerical modelling such as finite element methods, are often used to construct this data basis. However, this approach is very time-consuming especially when the finite element model is complex, which is often the case due to the increasing complexity of structures. This thesis is within this framework. Indeed, it deals with the problem of efficiently obtaining damage-sensitive features of complex composite structures. More specifically, it aims to define and develop efficient numerical tools helping for SHM of complex composite structures. Hence, model reduction and metamodeling approaches based on the Wave-finite element (WFE) and Kriging methods respectively are proposed and investigated. So, the main objective of the present work is to assess the potential of the combination of the WFE and kriging metamodeling to be useful and efficient in predicting the structural and dynamic characteristics of complex composite structures. This efficiency is quantified by the prediction accuracy and the involved cost. Based on the predicted dynamic properties, some damage-sensitive indicators (such as amplitudes, natural frequencies, phase shifts) are defined and exploited to evaluate the health status of the considered structures.Based on the accomplished studies, it is shown that the proposed strategy, namely the Kriging-based WFEM, can ensure an interesting efficiency resulting in a suitable accuracy of predictions of the structural and dynamical properties while involving a smaller cost than the WFEM-based calculations. Moreover, the proposed strategy has kept the same sensitivity levels of dynamic properties to the considered damages (cracks and delamination) with the associated indexes. The strategy proved to be more efficient when using the adaptive sampling scheme with kriging
APA, Harvard, Vancouver, ISO, and other styles
34

Jacquemart, Damien. "Contributions aux méthodes de branchement multi-niveaux pour les évènements rares, et applications au trafic aérien." Thesis, Rennes 1, 2014. http://www.theses.fr/2014REN1S186/document.

Full text
Abstract:
La thèse porte sur la conception et l'analyse mathématique de méthodes de Monte Carlo fiables et précises pour l'estimation de la (très petite) probabilité qu'un processus de Markov atteigne une région critique de l'espace d'état avant un instant final déterministe. L'idée sous-jacente aux méthodes de branchement multi-niveaux étudiées ici est de mettre en place une suite emboitée de régions intermédiaires de plus en plus critiques, de telle sorte qu'atteindre une région intermédiaire donnée sachant que la région intermédiaire précédente a déjà été atteinte, n'est pas si rare. En pratique, les trajectoires sont propagées, sélectionnées et répliquées dès que la région intermédiaire suivante est atteinte, et il est facile d'estimer avec précision la probabilité de transition entre deux régions intermédiaires successives. Le biais dû à la discrétisation temporelle des trajectoires du processus de Markov est corrigé en utilisant des régions intermédiaires perturbées, comme proposé par Gobet et Menozzi. Une version adaptative consiste à définir automatiquement les régions intermédiaires, à l’aide de quantiles empiriques. Néanmoins, une fois que le seuil a été fixé, il est souvent difficile voire impossible de se rappeler où (dans quel état) et quand (à quel instant) les trajectoires ont dépassé ce seuil pour la première fois, le cas échéant. La contribution de la thèse consiste à utiliser une première population de trajectoires pilotes pour définir le prochain seuil, à utiliser une deuxième population de trajectoires pour estimer la probabilité de dépassement du seuil ainsi fixé, et à itérer ces deux étapes (définition du prochain seuil, et évaluation de la probabilité de transition) jusqu'à ce que la région critique soit finalement atteinte. La convergence de cet algorithme adaptatif à deux étapes est analysée dans le cadre asymptotique d'un grand nombre de trajectoires. Idéalement, les régions intermédiaires doivent êtres définies en terme des variables spatiale et temporelle conjointement (par exemple, comme l'ensemble des états et des temps pour lesquels une fonction scalaire de l’état dépasse un niveau intermédiaire dépendant du temps). Le point de vue alternatif proposé dans la thèse est de conserver des régions intermédiaires simples, définies en terme de la variable spatiale seulement, et de faire en sorte que les trajectoires qui dépassent un seuil précocement sont davantage répliquées que les trajectoires qui dépassent ce même seuil plus tardivement. L'algorithme résultant combine les points de vue de l'échantillonnage pondéré et du branchement multi-niveaux. Sa performance est évaluée dans le cadre asymptotique d'un grand nombre de trajectoires, et en particulier un théorème central limite est obtenu pour l'erreur d'approximation relative
The thesis deals with the design and mathematical analysis of reliable and accurate Monte Carlo methods in order to estimate the (very small) probability that a Markov process reaches a critical region of the state space before a deterministic final time. The underlying idea behind the multilevel splitting methods studied here is to design an embedded sequence of intermediate more and more critical regions, in such a way that reaching an intermediate region, given that the previous intermediate region has already been reached, is not so rare. In practice, trajectories are propagated, selected and replicated as soon as the next intermediate region is reached, and it is easy to accurately estimate the transition probability between two successive intermediate regions. The bias due to time discretization of the Markov process trajectories is corrected using perturbed intermediate regions as proposed by Gobet and Menozzi. An adaptive version would consist in the automatic design of the intermediate regions, using empirical quantiles. However, it is often difficult if not impossible to remember where (in which state) and when (at which time instant) did each successful trajectory reach the empirically defined intermediate region. The contribution of the thesis consists in using a first population of pilot trajectories to define the next threshold, in using a second population of trajectories to estimate the probability of exceeding this empirically defined threshold, and in iterating these two steps (definition of the next threshold, and evaluation of the transition probability) until the critical region is reached. The convergence of this adaptive two-step algorithm is studied in the asymptotic framework of a large number of trajectories. Ideally, the intermediate regions should be defined in terms of the spatial and temporal variables jointly (for example, as the set of states and times for which a scalar function of the state exceeds a time-dependent threshold). The alternate point of view proposed in the thesis is to keep intermediate regions as simple as possible, defined in terms of the spatial variable only, and to make sure that trajectories that manage to exceed a threshold at an early time instant are more replicated than trajectories that exceed the same threshold at a later time instant. The resulting algorithm combines importance sampling and multilevel splitting. Its preformance is evaluated in the asymptotic framework of a large number of trajectories, and in particular a central limit theorem is obtained for the relative approximation error
APA, Harvard, Vancouver, ISO, and other styles
35

Capel, Eliott. "La grande révolution terrestre du Silurien-Dévonien : diversité et évolution des premières plantes terrestres." Electronic Thesis or Diss., Université de Lille (2022-....), 2022. https://pepite-depot.univ-lille.fr/ToutIDP/EDSMRE/2022/2022ULILR059.pdf.

Full text
Abstract:
Les plantes ont connu une période de diversification intense pendant le Silurien-Dévonien, correspondant à la colonisation progressive des milieux terrestres (440-360 Ma). Néanmoins, le tempo et le mode de cette radiation restent controversés, et les facteurs contrôlant la diversité n'ont pas encore été clairement identifiés. Cette thèse, à travers plusieurs jeux de données de macrofossiles de plantes et via un large éventail de méthodes quantitatives, a permis de caractériser leurs dynamiques spatiales et temporelles. Ce travail évalue également les biais qui peuvent altérer notre perception de cette radiation. Tout d'abord, un modèle à quatre facteurs s'est avéré adéquat pour décrire la structure sous-jacente de la dynamique de diversification des premières plantes. Le modèle suggère des basculements écologiques pendant les phases de transition, corroboré à travers une caractérisation approfondie des patrons globaux de diversité végétale. Cependant, les fluctuations de diversité durant le Silurien-Dévonien dépendent fortement de l'effort d'échantillonnage, bien que plusieurs signaux de diversification et d'extinction semblent en être dissociés. Une étude subséquente à l'échelle continentale a démontré que les lacunes géologiques demeuraient également un élément important expliquant l'allure des patrons apparents de diversité des premières plantes terrestres. Ce biais est difficilement corrigeable même en ayant recours aux méthodes de normalisation de l'échantillonnage les plus avancées. Les divergences paléogéographiques ont ensuite été évaluées afin de mettre en évidence une éventuelle composante spatiale dans la radiation des premières plantes terrestres. Cette analyse a permis de mettre en évidence l'influence du climat sur la distribution et la dispersion de la végétation, notamment lors des périodes les plus froides. Enfin, cette thèse comprend une révision d'un assemblage de plantes fossiles du Dévonien inférieur du nord de la France, fournissant des occurrences taxonomiquement à jour et bien datées qui pourront être intégrées dans des études ultérieures
Plants underwent an extensive Silurian-Devonian diversification during their progressive colonization of terrestrial surfaces (440-360 Ma). Nonetheless, the tempo and mode of this radiation remains controversial, and drivers of diversity have yet to be clearly identified. This thesis, through a series of newly-compiled datasets of plant macrofossils, and via a wide array of quantitative methods, characterizes temporal and spatial dynamics. It further evaluates the biases that may alter our perception of this landmark event. Firstly, a four-factor model was found adequate to describe the underlying structure of early vegetation dynamics. The pattern suggests ecological shifts during transitions phases, further corroborated through an in-depth characterization of global plant diversity patterns. Nevertheless, the general pattern of Silurian-Devonian plant diversity was found to heavily depend on sampling effort, although several signals of diversification and extinction seemed to be dissociated from it, implying real underlying biological signals. A subsequent continental-scale study further demonstrated that, in addition to sampling heterogeneity, geological incompleteness remained an important element in driving apparent early land plant diversity patterns. This bias is not easily corrected even with the most advanced sampling-standardization methods. Furthermore, paleogeographical discrepancies were assessed to uncover a possible spatial component into early land plant radiation. This led to the discovery of a climatologically-driven plant distribution and dispersion, further enhanced during colder periods. Lastly, this thesis includes a review of an Early Devonian plant fossil assemblage from northern France, providing taxonomically up to date and well-dated occurrences to integrate in future studies
APA, Harvard, Vancouver, ISO, and other styles
36

Wendland, David. "The equation of state of the Hydrogen-Helium mixture with application to the Sun." Thesis, Lyon, École normale supérieure, 2015. http://www.theses.fr/2015ENSL1029/document.

Full text
Abstract:
L’étude des propriétés d’équilibre d’un système Coulombien quantique à plusieurs composantes présente un intérêt théorique fondamental, au-delà de ses nombreuses applications. Le mélange hydrogène-hélium est omniprésent dans la nébuleuse interstellaire ou les planètes géantes, et c’est aussi le constituant majoritaire du Soleil, où les interactions entre électrons et noyaux sont purement électrostatiques en première approximation.Ce travail est dévolu à l’équation d’état de ce mélange vu comme un plasma quantique constitué de protons, de noyaux d’Hélium et d’électrons. Dans ce cadre, nous développons des méthodes numériques pour estimer des intégrales de chemin représentant des ingrédients essentiels. En outre, nous construisons une nouvelle version de la diagrammatique à la Mayer resommée bien adaptée à nos objectifs.Tout d’abord, nous améliorons le double développement basse température et basse densité, dit SLT, pour l’hydrogène pur, grâce à de meilleures estimations des termes à trois corps, les résultats étant par ailleurs comparés à la fameuse équation d’état OPAL. Les densités plus élevées sont atteintes de manière non-perturbative, en utilisant des fonctions de partition d’entités recombinées suffisamment précises. Ainsi l’ionisation par pression est décrite sur une base théorique robuste. Nous étudions également d’autres quantités d’équilibre, comme l’énergie interne et la vitesse du son. Dans la dernière partie, nous calculons l’équation d’état du mélange hydrogène-hélium en incluant les effets d’écran associés aux ions He+, ainsi que des corrections à la Debye déterminées de manière auto-cohérente. Nos résultats nous permettent de comprendre le contenu physique d’approches ad-hoc et de déterminer leurs régimes de validité. Nous obtenons aussi une description plus fiable du mélange, qui devrait être précise le long de l'adiabate du Soleil
The study of the thermodynamic properties of a multi-component quantum Coulomb system is of fundamental theoretical interest and has, beyond that, a wide range of applications. The Hydrogen-Helium mixture can be found in the interstellar nebulae and giant planets, however the most prominent example is the Sun. Here the interaction between the electrons and the nuclei is almost purely electrostatic.In this work we study the equation of state of the Hydrogen-Helium mixture starting from first principles, meaning the fundamental Coulomb interaction of its constituting particles. In this context we develop numerical methods to study the few-particle clusters appearing in the theory by using the path integral language. To capture the effects of the long-range Coulomb interaction between the fundamental particles, we construct a new version of Mayer-diagrammatic, which is appropriate for our purposes. In a first step, we ameliorate the scaled-low-temperature (SLT) equation of state, valid in the limit of low density and low temperature, by taking three-body terms into account and we compare the predictions to the well-established OPAL equation of state. Higher densities are accessed by direct inversion of the density equations and by the use of cluster functions that include screening effects. These cluster functions put the influence of screening on the ionization, unto now treated ad-hoc, on a theoretically well-grounded basis. We also inspect other equilibrium quantities such as the speed of sound and the inner energy. In the last part we calculate the equation of state of the Hydrogen-Helium mixture including the charged He+ ions in the screening process. Our work gives insights in the physical content of previous phenomenological descriptions and helps to better determine their range of validity. The equation of state derived in this thesis is expected to be very precise as well as reliable for conditions found in the Sun
APA, Harvard, Vancouver, ISO, and other styles
37

Ben-Hamou, Anna. "Concentration et compression sur alphabets infinis, temps de mélange de marches aléatoires sur des graphes aléatoires." Thesis, Sorbonne Paris Cité, 2016. http://www.theses.fr/2016USPCC197/document.

Full text
Abstract:
Ce document rassemble les travaux effectués durant mes années de thèse. Je commence par une présentation concise des résultats principaux, puis viennent trois parties relativement indépendantes.Dans la première partie, je considère des problèmes d'inférence statistique sur un échantillon i.i.d. issu d'une loi inconnue à support dénombrable. Le premier chapitre est consacré aux propriétés de concentration du profil de l'échantillon et de la masse manquante. Il s'agit d'un travail commun avec Stéphane Boucheron et Mesrob Ohannessian. Après avoir obtenu des bornes sur les variances, nous établissons des inégalités de concentration de type Bernstein, et exhibons un vaste domaine de lois pour lesquelles le facteur de variance dans ces inégalités est tendu. Le deuxième chapitre présente un travail en cours avec Stéphane Boucheron et Elisabeth Gassiat, concernant le problème de la compression universelle adaptative d'un tel échantillon. Nous établissons des bornes sur la redondance minimax des classes enveloppes, et construisons un code quasi-adaptatif sur la collection des classes définies par une enveloppe à variation régulière. Dans la deuxième partie, je m'intéresse à des marches aléatoires sur des graphes aléatoires à degrés precrits. Je présente d'abord un résultat obtenu avec Justin Salez, établissant le phénomène de cutoff pour la marche sans rebroussement. Sous certaines hypothèses sur les degrés, nous déterminons précisément le temps de mélange, la fenêtre du cutoff, et montrons que le profil de la distance à l'équilibre converge vers la fonction de queue gaussienne. Puis je m'intéresse à la comparaison des temps de mélange de la marche simple et de la marche sans rebroussement. Enfin, la troisième partie est consacrée aux propriétés de concentration de tirages pondérés sans remise et correspond à un travail commun avec Yuval Peres et Justin Salez
This document presents the problems I have been interested in during my PhD thesis. I begin with a concise presentation of the main results, followed by three relatively independent parts. In the first part, I consider statistical inference problems on an i.i.d. sample from an unknown distribution over a countable alphabet. The first chapter is devoted to the concentration properties of the sample's profile and of the missing mass. This is a joint work with Stéphane Boucheron and Mesrob Ohannessian. After obtaining bounds on variances, we establish Bernstein-type concentration inequalities and exhibit a vast domain of sampling distributions for which the variance factor in these inequalities is tight. The second chapter presents a work in progress with Stéphane Boucheron and Elisabeth Gassiat, on the problem of universal adaptive compression over countable alphabets. We give bounds on the minimax redundancy of envelope classes, and construct a quasi-adaptive code on the collection of classes defined by a regularly varying envelope. In the second part, I consider random walks on random graphs with prescribed degrees. I first present a result obtained with Justin Salez, establishing the cutoff phenomenon for non-backtracking random walks. Under certain degree assumptions, we precisely determine the mixing time, the cutoff window, and show that the profile of the distance to equilibrium converges to the Gaussian tail function. Then I consider the problem of comparing the mixing times of the simple and non-backtracking random walks. The third part is devoted to the concentration properties of weighted sampling without replacement and corresponds to a joint work with Yuval Peres and Justin Salez
APA, Harvard, Vancouver, ISO, and other styles
38

Meynaoui, Anouar. "New developments around dependence measures for sensitivity analysis : application to severe accident studies for generation IV reactors." Thesis, Toulouse, INSA, 2019. http://www.theses.fr/2019ISAT0028.

Full text
Abstract:
Dans le cadre des études de sûreté pour les réacteurs nucléaires, les simulateurs numériques sont essentiels pour comprendre, modéliser et prévoir des phénomènes physiques. Les informations relatives à certaines entrées des simulateurs sont souvent limitées ou incertaines. L'Analyse de Sensibilité Globale (ASG) vise alors à déterminer comment la variabilité des paramètres en entrée influe sur la valeur de la sortie ou de la quantité d’intérêt. Les travaux réalisés dans cette thèse ont pour objectif de proposer des nouvelles méthodes statistiques basées sur les mesures de dépendance pour l'ASG des simulateurs numériques. On s’intéresse plus particulièrement aux mesures de dépendance de type HSIC (Hilbert-Schmidt Independence Criterion). Après les Chapitres 1 et 2 introduisant le contexte général et les motivations de la thèse respectivement en versions française et anglaise, le Chapitre 3 présente d'abord une revue générale des mesures HSIC, dans un cadre théorique et méthodologique. Ensuite, des nouveaux développements autour de l'estimation des mesures HSIC à partir d'un échantillon alternatif et s'inspirant des techniques d'échantillonnage préférentiel sont proposés. Grâce à ces développements théoriques, une méthodologie efficace pour l’ASG en présence d’incertitudes sur les distributions de probabilité des entrées est développée dans le Chapitre 4. La pertinence de la méthodologie proposée est démontrée d’abord sur un cas analytique avant d’être appliquée au simulateur MACARENa modélisant un scénario accidentel de type ULOF (Unprotected Loss Of Flow), sur un réacteur à neutrons rapides refroidi au sodium. Le Chapitre 5 porte ensuite sur le développement d'un test d'indépendance agrégeant plusieurs paramétrisations des noyaux intervenant dans les HSIC. La méthodologie proposée permet ainsi de capturer un plus large spectre de dépendance entre les entrées et la sortie. L’optimalité de cette méthodologie est tout d'abord démontrée d’un point de vue théorique. Ses performances et son intérêt applicatif sont ensuite illustrés sur plusieurs exemples analytiques ainsi que sur le cas du simulateur MACARENa
As part of safety studies for nuclear reactors, numerical simulators are essential for understanding, modelling and predicting physical phenomena. However, the information on some of the input variables of the simulator is often limited or uncertain. In this framework, Global Sensitivity Analysis (GSA) aims at determining how the variability of the input parameters affects the value of the output or the quantity of interest. The work carried out in this thesis aims at proposing new statistical methods based on dependence measures for GSA of numerical simulators. We are particularly interested in HSIC-type dependence measures (Hilbert-Schmidt Independence Criterion). After Chapters 1 and 2 introducing the general context and motivations of the thesis in French and English versions respectively, Chapter 3 first presents a general review of HSIC measures, in a theoretical and methodological framework. Subsequently, new developments around the estimation of HSIC measures from an alternative sample and inspired by importance sampling techniques are proposed. As a result of these theoretical developments, an efficient methodology for GSA in the presence of uncertainties of input probability distributions is developed in Chapter 4. The relevance of the proposed methodology is first demonstrated on an analytical case before being applied to the MACARENa simulator modeling a ULOF (Unprotected Loss Of Flow) accidental scenario on a sodium-cooled fast neutron reactor. Finally, Chapter 5 deals with the development of an independence test aggregating several parametrizations of HSIC kernels and allowing to capture a wider spectrum of dependencies between the inputs and the output. The optimality of this methodology is first demonstrated from a theoretical point of view. Then, its performance and practical interest are illustrated on several analytical examples as well as on the test case of the MACARENa simulator
APA, Harvard, Vancouver, ISO, and other styles
39

Chen, Long. "Méthodes itératives de reconstruction tomographique pour la réduction des artefacts métalliques et de la dose en imagerie dentaire." Thesis, Paris 11, 2015. http://www.theses.fr/2015PA112015/document.

Full text
Abstract:
Cette thèse est constituée de deux principaux axes de recherche portant sur l'imagerie dentaire par la tomographie à rayons X : le développement de nouvelles méthodes itératives de reconstruction tomographique afin de réduire les artefacts métalliques et la réduction de la dose délivrée au patient. Afin de réduire les artefacts métalliques, nous prendrons en compte le durcissement du spectre des faisceaux de rayons X et le rayonnement diffusé. La réduction de la dose est abordée dans cette thèse en diminuant le nombre des projections traitées. La tomographie par rayons X a pour objectif de reconstruire la cartographie des coefficients d'atténuations d'un objet inconnu de façon non destructive. Les bases mathématiques de la tomographie repose sur la transformée de Radon et son inversion. Néanmoins des artefacts métalliques apparaissent dans les images reconstruites en inversant la transformée de Radon (la méthode de rétro-projection filtrée), un certain nombre d'hypothèse faites dans cette approche ne sont pas vérifiées. En effet, la présence de métaux exacerbe les phénomènes de durcissement de spectre et l'absence de prise en compte du rayonnement diffusé. Nous nous intéressons dans cette thèse aux méthodes itératives issues d'une méthodologie Bayésienne. Afin d'obtenir des résultats de traitement compatible avec une application clinique de nos nouvelles approches, nous avons choisi un modèle direct relativement simple et classique (linéaire) associé à des approches de corrections de données. De plus, nous avons pris en compte l'incertitude liée à la correction des données en utilisant la minimisation d'un critère de moindres carrés pondérés. Nous proposons donc une nouvelle méthode de correction du durcissement du métal sans connaissances du spectre de la source et des coefficients d'atténuation des matériaux. Nous proposons également une nouvelle méthode de correction du diffusé associée sur les mesures sous certaines conditions notamment de faible dose. En imagerie médicale par tomographie à rayons X, la surexposition ou exposition non nécessaire irradiante augmente le risque de cancer radio-induit lors d'un examen du patient. Notre deuxième axe de recherche porte donc sur la réduction de la dose en diminuant le nombre de projections. Nous avons donc introduit un nouveau mode d'acquisition possédant un échantillonnage angulaire adaptatif. On utilise pour définir cette acquisition notre connaissance a priori de l'objet. Ce mode d'acquisition associé à un algorithme de reconstruction dédié, nous permet de réduire le nombre de projections tout en obtenant une qualité de reconstruction comparable au mode d'acquisition classique. Enfin, dans certains modes d’acquisition des scanners dentaires, nous avons un détecteur qui n'arrive pas à couvrir l'ensemble de l'objet. Pour s'affranchir aux problèmes liés à la tomographie locale qui se pose alors, nous utilisons des acquisitions multiples suivant des trajectoires circulaires. Nous avons adaptés les résultats développés par l’approche « super short scan » [Noo et al 2003] à cette trajectoire très particulière et au fait que le détecteur mesure uniquement des projections tronquées. Nous avons évalué nos méthodes de réduction des artefacts métalliques et de réduction de la dose en diminuant le nombre des projections sur les données réelles. Grâce à nos méthodes de réduction des artefacts métalliques, l'amélioration de qualité des images est indéniable et il n'y a pas d'introduction de nouveaux artefacts en comparant avec la méthode de l'état de l'art NMAR [Meyer et al 2010]. Par ailleurs, nous avons réussi à réduire le nombre des projections avec notre nouveau mode d'acquisition basé sur un « super short scan » appliqué à des trajectoires multiples. La qualité obtenue est comparable aux reconstructions obtenues avec les modes d'acquisition classiques ou short-scan mais avec une réduction d’au moins 20% de la dose radioactive
This thesis contains two main themes: development of new iterative approaches for metal artifact reduction (MAR) and dose reduction in dental CT (Computed Tomography). The metal artifacts are mainly due to the beam-hardening, scatter and photon starvation in case of metal in contrast background like metallic dental implants in teeth. The first issue concerns about data correction on account of these effects. The second one involves the radiation dose reduction delivered to a patient by decreasing the number of projections. At first, the polychromatic spectra of X-ray beam and scatter can be modeled by a non-linear direct modeling in the statistical methods for the purpose of the metal artifacts reduction. However, the reconstruction by statistical methods is too much time consuming. Consequently, we proposed an iterative algorithm with a linear direct modeling based on data correction (beam-hardening and scatter). We introduced a new beam-hardening correction without knowledge of the spectra of X-ray source and the linear attenuation coefficients of the materials and a new scatter estimation method based on the measurements as well. Later, we continued to study the iterative approaches of dose reduction since the over-exposition or unnecessary exposition of irradiation during a CT scan has been increasing the patient's risk of radio-induced cancer. In practice, it may be useful that one can reconstruct an object larger than the field of view of scanner. We proposed an iterative algorithm on super-short-scans on multiple scans in this case, which contain a minimal set of the projections for an optimal dose. Furthermore, we introduced a new scanning mode of variant angular sampling to reduce the number of projections on a single scan. This was adapted to the properties and predefined interesting regions of the scanned object. It needed fewer projections than the standard scanning mode of uniform angular sampling to reconstruct the objet. All of our approaches for MAR and dose reduction have been evaluated on real data. Thanks to our MAR methods, the quality of reconstructed images was improved noticeably. Besides, it did not introduce some new artifacts compared to the MAR method of state of art NMAR [Meyer et al 2010]. We could reduce obviously the number of projections with the proposed new scanning mode and schema of super-short-scans on multiple scans in particular case
APA, Harvard, Vancouver, ISO, and other styles
40

Baltcheva, Irina. "Contrôle adaptatif et autoréglage : applications de l'approximation stochastique." Thèse, 2004. http://hdl.handle.net/1866/16644.

Full text
APA, Harvard, Vancouver, ISO, and other styles
41

Ebert, Maximilian. "Shifting the boundaries of experimental studies in engineering enzymatic functions : combining the benefits of computational and experimental methods." Thèse, 2016. http://hdl.handle.net/1866/19025.

Full text
Abstract:
Cette thèse comporte quatre fichiers vidéo. This thesis comes with four video files.
L'industrie chimique mondiale est en pleine mutation, cherchant des solutions pour rendre la synthèse organique classique plus durable. Une telle solution consiste à passer de la catalyse chimique classique à la biocatalyse. Bien que les avantages des enzymes incluent leur stéréo, régio et chimiosélectivité, cette sélectivité réduit souvent leur promiscuité. Les efforts requis pour adapter la fonction enzymatique aux réactions désirées se sont révélés d'une efficacité modérée, de sorte que des méthodes rapides et rentables sont nécessaires pour générer des biocatalyseurs qui rendront la production chimique plus efficace. Dans l’ère de la bioinformatique et des outils de calcul pour soutenir l'ingénierie des enzymes, le développement rapide de nouvelles fonctions enzymatiques devient une réalité. Cette thèse commence par un examen des développements récents sur les outils de calcul pour l’ingénierie des enzymes. Ceci est suivi par un exemple de l’ingénierie des enzymes purement expérimental ainsi que de l’évolution des protéines. Nous avons exploré l’espace mutationnel d'une enzyme primitive, la dihydrofolate réductase R67 (DHFR R67), en utilisant l’ingénierie semi-rationnelle des protéines. La conception rationnelle d’une librarie de mutants, ou «Smart library design», impliquait l’association covalente de monomères de l’homotétramère DHFR R67 en dimères afin d’augmenter la diversité de la librairie d’enzymes mutées. Le criblage par activité enzymatique a révélé un fort biais pour le maintien de la séquence native dans un des protomères tout en tolérant une variation de séquence élevée pour le deuxième. Il est plausible que les protomères natifs procurent l’activité observée, de sorte que nos efforts pour modifier le site actif de la DHFR R67 peuvent n’avoir été que modérément fructueux. Les limites des méthodes expérimentales sont ensuite abordées par le développement d’outils qui facilitent la prédiction des points chauds mutationnels, c’est-à-dire les sites privilégiés à muter afin de moduler la fonction. Le développement de ces techniques est intensif en termes de calcul, car les protéines sont de grandes molécules complexes dans un environnement à base d’eau, l’un des solvants les plus difficiles à modéliser. Nous présentons l’identification rapide des points chauds mutationnels spécifiques au substrat en utilisant l'exemple d’une enzyme cytochrome P450 industriellement pertinente, la CYP102A1. En appliquant la technique de simulation de la dynamique moléculaire par la force de polarisation adaptative, ou «ABF», nous confirmons les points chauds mutationnels connus pour l’hydroxylation des acides gras tout en identifiant de nouveaux points chauds mutationnels. Nous prédisons également la conformation du substrat naturel, l’acide palmitique, dans le site actif et nous appliquons ces connaissances pour effectuer un criblage virtuel d'autres substrats de cette enzyme. Nous effectuons ensuite des simulations de dynamique moléculaire pour traiter l’impact potentiel de la dynamique des protéines sur la catalyse enzymatique, qui est le sujet de discussions animées entre les experts du domaine. Avec la disponibilité accrue de structures cristallines dans la banque de données de protéines (PDB), il devient clair qu’une seule structure de protéine n’est pas suffisante pour élucider la fonction enzymatique. Nous le démontrons en analysant quatre structures cristallines que nous avons obtenues d’une enzyme β-lactamase, parmi lesquelles un réarrangement important des résidus clés du site actif est observable. Nous avons réalisé de longues simulations de dynamique moléculaire pour générer un ensemble de structures suggérant que les structures cristallines ne reflètent pas nécessairement la conformation de plus basse énergie. Enfin, nous étudions la nécessité de compléter de manière informatisée un hémisphère où l’expérimental n’est actuellement pas possible, à savoir la prédiction de la migration des gaz dans les enzymes. À titre d'exemple, la réactivité des enzymes cytochrome P450 dépend de la disponibilité des molécules d’oxygène envers l’hème du site actif. Par le biais de simulations de la dynamique moléculaire de type Simulation Implicite du Ligand (ILS), nous dérivons le paysage de l’énergie libre de petites molécules neutres de gaz pour cartographier les canaux potentiels empruntés par les gaz dans les cytochromes P450 : CYP102A1 et CYP102A5. La comparaison pour les gaz CO, N2 et O2 suggère que ces enzymes évoluent vers l’exclusion du CO inhibiteur. De plus, nous prédisons que les canaux empruntés par les gaz sont distincts des canaux empruntés par le substrat connu et que ces canaux peuvent donc être modifiés indépendamment les uns des autres.
The chemical industry worldwide is at a turning point, seeking solutions to make classical organic synthesis more sustainable. One such solution is to shift from classical catalysis to biocatalysis. Although the advantages of enzymes include their stereo-, regio-, and chemoselectivity, their selectivity often reduces versatility. Past efforts to tailor enzymatic function towards desired reactions have met with moderate effectiveness, such that fast and cost-effective methods are in demand to generate biocatalysts that will render the production of fine and bulk chemical production more benign. In the wake of bioinformatics and computational tools to support enzyme engineering, the fast development of new enzyme functions is becoming a reality. This thesis begins with a review of recent developments on computational tools for enzyme engineering. This is followed by an example of purely experimental enzyme engineering and protein evolution. We explored the mutational space of a primitive enzyme, the R67 dihydrofolate reductase (DHFR), using semi-rational protein engineering. ‘Smart library design’ involved fusing monomers of the homotetrameric R67 DHFR into dimers, to increase the diversity in the resulting mutated enzyme libraries. Activity-based screening revealed a strong bias for maintenance of the native sequence in one protomer with tolerance for high sequence variation in the second. It is plausible that the native protomers procure the observed activity, such that our efforts to modify the enzyme active site may have been only moderately fruitful. The limitations of experimental methods are then addressed by developing tools that facilitate computational mutational hotspot prediction. Developing these techniques is computationally intensive, as proteins are large molecular objects and work in aqueous media, one of the most complex solvents to model. We present the rapid, substrate-specific identification of mutational hotspots using the example of the industrially relevant P450 cytochrome CYP102A1. Applying the adaptive biasing force (ABF) molecular dynamics simulation technique, we confirm the known mutational hotspots for fatty acid hydroxylation and identify a new one. We also predict a catalytic binding pose for the natural substrate, palmitic acid, and apply that knowledge to perform virtual screening for further substrates for this enzyme. We then perform molecular dynamics simulations to address the potential impact of protein dynamics on enzyme catalysis, which is the topic of heated discussions among experts in the field. With the availability of more crystal structures in the Protein Data Bank, it is becoming clear that a single protein structure is not sufficient to elucidate enzyme function. We demonstrate this by analyzing four crystal structures we obtained of a β-lactamase enzyme, among which a striking rearrangement of key active site residues was observed. We performed long molecular dynamics simulations to generate a structural ensemble that suggests that crystal structures do not necessarily reflect the conformation of lowest energy. Finally, we address the need to computationally complement an area where experimentation is not currently possible, namely the prediction of gas migration into enzymes. As an example, the reactivity of P450 cytochrome enzymes depends on the availability of molecular oxygen at the active-site heme. Using the Implicit Ligand Sampling (ILS) molecular dynamics simulation technique, we derive the free energy landscape of small neutral gas molecules to map potential gas channels in cytochrome P450 CYP102A1 and CYP102A5. Comparison of CO, N2 and O2 suggests that those enzymes evolved towards exclusion of the inhibiting CO. In addition, we predict that gas channels are distinct from known substrate channels and therefore can be engineered independently from one another.
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography