Littérature scientifique sur le sujet « Échantillonage adaptatif »

Créez une référence correcte selon les styles APA, MLA, Chicago, Harvard et plusieurs autres

Choisissez une source :

Consultez les listes thématiques d’articles de revues, de livres, de thèses, de rapports de conférences et d’autres sources académiques sur le sujet « Échantillonage adaptatif ».

À côté de chaque source dans la liste de références il y a un bouton « Ajouter à la bibliographie ». Cliquez sur ce bouton, et nous générerons automatiquement la référence bibliographique pour la source choisie selon votre style de citation préféré : APA, MLA, Harvard, Vancouver, Chicago, etc.

Vous pouvez aussi télécharger le texte intégral de la publication scolaire au format pdf et consulter son résumé en ligne lorsque ces informations sont inclues dans les métadonnées.

Articles de revues sur le sujet "Échantillonage adaptatif"

1

St-Laurent, Méi-Ra. « Quand le metal flirte avec ABBA : Analyse des transformations formelles et thématiques de « Summer Night City » ». Articles 34, no 1-2 (26 mai 2015) : 135–51. http://dx.doi.org/10.7202/1030873ar.

Texte intégral
Résumé :
Une des caractéristiques fondamentales de la musique populaire demeure la réutilisation constante du matériel musical en provenance d’une multitude de styles et de courants (remix, adaptation, échantillonnage, etc.). Cette pratique nommée la transphonographie provient de l’intertextualité, un concept élaboré par le littéraire Gérard Genette et adapté à la musique populaire par le musicologue Serge Lacasse. Dans ce texte, l’auteur emploiera la transphonographie pour relever les différentes transformations musicales et thématiques survenant dans la chanson « Summer Night City » de ABBA, lorsque celle-ci est reprise par le groupe de gothique metal symphonique Therion. En plus des éléments musicaux propres à la musique d’ABBA modifiés pour correspondre à l’esthétique de Therion, ces transformations induisent aussi un changement dans la signification même de la chanson.
Styles APA, Harvard, Vancouver, ISO, etc.
2

TAINTURIER, J., N. ROUSSELOT et J.-P. JOSEPH. « L'information lors de la crise du Levothyrox en France en 2017. Etude du vécu des patients ». EXERCER 31, no 167 (1 novembre 2020) : 395–401. http://dx.doi.org/10.56746/exercer.2020.167.395.

Texte intégral
Résumé :
Contexte. En 2017, 2,3 millions de patients utilisaient le Levothyrox®, du laboratoire Merck, lorsque la formule a changé. Cette nouvelle formule a suscité plus de 17 300 déclarations d’effets indésirables. La crise a d’abord émergé sur les réseaux sociaux, puis a pris de l’ampleur dans les médias avant que les autorités sanitaires ne s’en saisissent. Objectifs. Décrire et analyser comment les patients ont vécu l’information lors de la crise du Levothyrox® en France en 2017, puis les sources d’information utilisées par les patients. Méthode. Analyse qualitative phénoménologique interprétative avec recueil des données par entretiens individuels semi-dirigés auprès de patients en cabinet de médecine générale. Réalisation d’un échantillonnage à variation maximale. Analyse assistée par logiciel NVivo 12® et triangulation par deux chercheurs. Résultats. 15 entretiens ont été menés. Lors de la crise, les patients ont ressenti un défaut d’information auprès de leurs sources habituelles entraînant une adaptation de leur comportement : recherche active d’information, d’où une multiplication des sources et des contenus. Les vécus étaient différents selon les sources d’information. La surexposition à l’information a majoré le sentiment de désinformation et la peur face à un phénomène incompris. Plusieurs facteurs protecteurs apparaissaient de manière spontanée ou adaptative : avoir eu une information précoce par un professionnel de santé de confiance, avoir refusé de s’informer pendant la crise, ne pas s’être senti concerné, adapter son comportement pour se protéger seul. Conclusion. Les patients sont de plus en plus informés, ce qui ne signifie pas qu’ils le sont de mieux en mieux. Lors d’une crise, le phénomène atteint son paroxysme, avec déstabilisation et perte de repères. Le rôle du médecin comme source d’information en santé devient alors déterminant.
Styles APA, Harvard, Vancouver, ISO, etc.
3

THOMAZO, M., et B. SOULIE. « CHEMINEMENT ET SELECTION D'UNE SOURCE D'INFORMATION EN MEDECINE DE PREMIER RECOURS : PROPOSITION D'UN MODELE EXPLICATIF PAR THEORISATION ANCREE ». EXERCER 34, no 192 (1 avril 2023) : 148–53. http://dx.doi.org/10.56746/exercer.2023.192.148.

Texte intégral
Résumé :
Introduction. Des décisions thérapeutiques sont prises lors de chaque consultation, et ce processus décisionnel est aujourd’hui bien étudié dans la littérature psychologique. Ces décisions sont censées se fonder sur le concept d’evidence-based medicine associant à la fois les données actualisées de la science, l’expertise empirique du praticien et les préférences du patient. Lorsqu’un choix doit être fait dans la prise en compte d’une source d’information, plusieurs profils décisionnaires existent. Objectif. Proposer un modèle théorique expliquant le cheminement d’une source d’information dans une prise de décision. Méthode. Étude qualitative inspirée de la théorisation ancrée avec échantillonnage théorique et processus d’itération en comparaison constante. Résultats. Les médecins généralistes déléguaient une partie de la critique des sources d’information à différents intermédiaires. L’accessibilité de ces informations formait un premier filtre : langue native, technologie, fatigue, investissement nécessaire et éloignement géographique des interlocuteurs. Les préférences comme l’indépendance, l’empirisme ou la formation universitaire étaient un second filtre. La confirmation par les pairs venait potentialiser certaines informations via la convivialité, les liens affectifs et la réputation. Une vigilance et une adaptation au contexte étaient les derniers filtres. Conclusion. L’origine des décisions est multifactorielle, et l’enseignement de ces facteurs pourrait permettre aux futurs médecins généralistes de mieux reconnaître certains biais cognitifs.
Styles APA, Harvard, Vancouver, ISO, etc.
4

HUET, L., Y. BARNIER et H. DONNADIEU-RIGOLE. « Chemsex : risques ressentis et stratégies d'adaptation ». EXERCER 35, no 201 (1 mars 2024) : 119–25. http://dx.doi.org/10.56746/exercer.2024.201.119.

Texte intégral
Résumé :
Introduction. Il existe depuis une dizaine d’années une augmentation des signaux sanitaires en France liés au chemsex chez les hommes ayant des rapports avec des hommes (HSH). Objectif. Identifier les risques ressentis par les HSH pratiquant le chemsex et leurs stratégies d’adaptation. Méthode. Étude qualitative basée sur 11 entretiens individuels semi-dirigés et un focus group de 4 chemsexeurs. Échantillonnage raisonné des participants recrutés sur la base du volontariat et par réseau. Enregistrement audio des entretiens puis retranscription mot à mot. Analyse phénoménologique des données puis production de catégories par comparaison constante entre les données et les construits de l’analyse. Résultats. Le risque majeur ressenti était le risque addictif. Le risque infectieux était la dangerosité des produits, sur lesquels se concentraient la prévention et la réduction des risques et des dommages (RdRD), le risque socioprofessionnel, l’impact sur la qualité de la vie sexuelle et la santé mentale, la notion de consentement. Il existait une multiplicité de techniques de contrôle et de réduction des risques par les usagers, mises en place de façon autonome. Ces techniques résultaient d’un apprentissage lié aux expériences personnelles, d’informations transmises par les pairs, le milieu associatif et médical. Discussion. Il est crucial de promouvoir l’accès à des programmes de prévention et de RdRD pour garantir la connaissance des risques associés au chemsex et ainsi une meilleure adaptation des comportements. Pour atteindre cet objectif, il est important de diversifier les stratégies de prévention et de RdRD afin de sensibiliser les chemsexeurs à ces multiples problématiques.
Styles APA, Harvard, Vancouver, ISO, etc.
5

Soloviev, Pierre, Guibien Cléophas Zerbo, Djingdia Lompo, Lucien Bakré Yoda et Dominique Jacques. « Acacia senegal au Burkina Faso : état de la ressource et potentiel productif ». BOIS & ; FORETS DES TROPIQUES 300, no 300 (1 juin 2009) : 15. http://dx.doi.org/10.19182/bft2009.300.a20411.

Texte intégral
Résumé :
Acacia senegal est une espèce largement répandue dans les zones sèches d¿Afrique. Elle constitue la principale source de production de gomme arabique, un hydrocolloïde utilisé localement ainsi que pour de nombreuses applications industrielles alimentaires ou non. Un inventaire réalisé en 1997 au Burkina Faso a établi une superficie en peuplements naturels de 286 000 ha. Des travaux ultérieurs ont démontré la présence dans ces peuplements d¿espèces apparentées, du sous-genre Aculeiferum (Acacia dudgeoni, Acacia gourmaensis et Acacia laeta). Une actualisation de l¿état des peuplements naturels et artificiels est apparue nécessaire dans le cadre de l¿adaptation de la stratégie de développement de la filière de la gomme arabique. La méthodologie mise en oeuvre a comporté deux phases, la première consistant à identifier les peuplements naturels et artificiels, la seconde à réaliser un inventaire par placettes d¿échantillonnage en vue de caractériser la composition spécifique et la densité des peuplements naturels. L¿étude a abouti à identifier des superficies fort limitées en peuplements naturels et artificiels de A. senegal, ainsi qu¿à constater l¿importance des peuplements naturels de A. laeta et des peuplements mélangés des espèces du sous-genre Aculeiferum. L¿aire naturelle de distribution de A. senegal au Burkina Faso a été précisée et les stations ont été caractérisées. Le potentiel de production de gomme arabique issue de A. senegal s¿établit à environ 25 tonnes/an. En conclusion, l¿accroissement de la production de gomme arabique de A. senegal au Burkina Faso implique l¿établissement de gommeraies artificielles. Un potentiel de production de gommes issues de A. seyal et A. laeta existe. (Résumé d'auteur)
Styles APA, Harvard, Vancouver, ISO, etc.
6

Tindano, Elycée, Aїssata Traore et Paulin Ouoba. « Ecologie et mécanismes d’adaptation à la sécheresse de <i>Caralluma adscendens</i> ; N.E.Br. à l’Ouest du Burkina Faso ». International Journal of Biological and Chemical Sciences 17, no 6 (18 janvier 2024) : 2412–28. http://dx.doi.org/10.4314/ijbcs.v17i6.22.

Texte intégral
Résumé :
Les inselbergs sont des affleurements rocheux caractérisés par la précarité de leurs facteurs édaphiques et microclimatiques. Ce sont des biotopes dont les espèces qui les colonisent ont la capacité de s’adapter à ce type d’environnement. C’est ce qui justifie l’étude sur Caralluma adscendens qui est l’une des espèces fréquentes sur les inselbergs du Burkina Faso. L’objectif de cette étude est de contribuer à la connaissance de l’écologie et des mécanismes d’adaptation de l’espèce à l’environnement xérique. Pour ce faire, une caractérisation des communautés végétales à C. adscendens s’est faite à l’aide de données floristiques collectées sur la base d’un échantillonnage orienté. Pour l’étude des mécanismes d’adaptation, plusieurs caractères physiologiques et morphologiques ont été évalués. Le cortège floristique des communautés végétales à C. adscendens est de 57 espèces réparties dans 45 genres et 23 familles dont les Poaceae (30%), les Fabaceae-Faboideae (12%) et les Cyperaceae (7%) sont les mieux représentées. Les mécanismes d’adaptation mis en place par l’espèce sont, la réduction des feuilles en feuilles vestigiales, le transfert des stomates des feuilles aux tiges, le nombre réduit de stomate par mm² et la grande capacité de rétention d’eau de l’espèce. Ces résultats témoignent la résistance de l’espèce à une perte d’eau importante et sa capacité à s’adapter à un environnement xérique. Inselbergs are rocky outcrops characterised by precarious edaphic and microclimatic factors. They are biotopes in which the species that colonise them are able to adapt to this type of environment. This justifies the study of Caralluma adscendens, which is one of the most common species found on inselbergs of Burkina Faso. The aim of this study was to contribute to our knowledge of the ecology and adaptation mechanisms of the species to the xeric environment. To this end, the plant communities of C. adscendens were characterised using floristic data collected on the basis of targeted sampling. Several physiological and morphological characteristics were assessed to study the adaptation mechanisms. The floristic assemblage of plant communities with C. adscendens comprises 57 species in 45 genera and 23 families, of which Poaceae (30%), Fabaceae-Faboideae (12%) and Cyperaceae (7%) were the best represented. The adaptation mechanisms put in place by the species were the reduction of leaves to vestigial leaves, the transfer of stomata from the leaves to the stems, the reduced number of stomata per mm² and the species' high water retention capacity. These results demonstrate the species' resistance to significant water loss and its ability to adapt to a xeric environment.
Styles APA, Harvard, Vancouver, ISO, etc.

Thèses sur le sujet "Échantillonage adaptatif"

1

Zhong, Anruo. « Machine learning and adaptive sampling to predict finite-temperature properties in metallic materials at the atomic scale ». Electronic Thesis or Diss., université Paris-Saclay, 2024. http://www.theses.fr/2024UPASP107.

Texte intégral
Résumé :
Les propriétés et le comportement des matériaux dans des conditions extrêmes sont essentiels pour les systèmes énergétiques tels que les réacteurs de fission et de fusion. Cependant, prédire avec précision les propriétés des matériaux à haute température reste un défi. Les mesures directes de ces propriétés sont limitées par les instruments expérimentaux, et les simulations à l'échelle atomique basées sur des champs de force empiriques sont souvent peu fiables en raison d'un manque de précision. Ce problème peut être résolu à l'aide de techniques d'apprentissage statistique, qui ont récemment vu leur utilisation exploser en science des matériaux. Les champs de force construits par apprentissage statistique atteignent le degré de précision des calculs ab initio ; cependant, leur mise en œuvre dans les méthodes d'échantillonnage est limitée par des coûts de calcul élevés, généralement supérieurs de plusieurs ordres de grandeur à ceux des champs de force traditionnels. Pour surmonter cette limitation, deux objectifs sont poursuivis dans cette thèse : (i) développer des champs de force par apprentissage statistique avec un meilleur compromis précision-efficacité et (ii) créer des méthodes accélérées d'échantillonnage de l'énergie libre afin de faciliter l'utilisation de champs de force d'apprentissage statistique coûteux en termes de calcul. Pour le premier objectif, nous améliorons la construction des champs de force d'apprentissage statistique en nous concentrant sur trois facteurs clés : la base de données, le descripteur de l'environnement atomique local et le modèle de régression. Dans le cadre de la régression par processus gaussien, nous proposons et optimisons des descripteurs basés sur des noyaux échantillonnés par la transformée de Fourier ainsi que de nouvelles méthodes de sélection de points épars pour la régression par noyau. Pour le deuxième objectif, nous développons un schéma d'échantillonnage bayésien rapide et robuste pour estimer l'énergie libre anharmonique, qui est cruciale pour comprendre les effets de la température sur les solides cristallins, à l'aide d'une méthode de force de biais adaptative améliorée. Cette méthode effectue une intégration thermodynamique à partir d'un système de référence harmonique, où les instabilités numériques associées aux fréquences nulles sont éliminées. La méthode d'échantillonnage proposée améliore considérablement la vitesse de convergence et la précision globale. Nous démontrons l'efficacité de la méthode améliorée en calculant les dérivées de second ordre de l'énergie libre, telles que les constantes élastiques, avec une rapidité plusieurs centaines de fois supérieure à celle des méthodes standard. Cette approche permet de prédire les propriétés thermodynamiques du tungstène et des alliages à haute entropie Ta-Ti-V-W à des températures qui ne peuvent être étudiées expérimentalement, jusqu'à leur point de fusion, avec une précision ab initio grâce à l'utilisation de champs de force construits par apprentissage statistique. Une extension de cette méthode permet l'échantillonnage d'un état métastable spécifique sans transition entre différents bassins d'énergie, fournissant ainsi l'énergie libre de formation et de liaison d'une configuration défectueuse. Ce développement aide à expliquer le mécanisme derrière l'observation des cavités dans le tungstène, mécanisme qui ne peut pas être expliqué par les calculs ab initio existants. Le profil d'énergie libre des lacunes dans le système Ta-Ti-V-W est également calculé pour la première fois. Enfin, nous validons l'application de cette méthode d'échantillonnage de l'énergie libre aux liquides. La précision et l'efficacité numérique du cadre de calcul proposé, qui combine des champs de force d'apprentissage statistique et des méthodes d'échantillonnage améliorées, ouvrent de nombreuses possibilités pour la prédiction fiable des propriétés des matériaux à température finie
The properties and behaviors of materials under extreme conditions are essential for energy systems such as fission and fusion reactors. However, accurately predicting the properties of materials at high temperatures remains challenging. Direct measurements of these properties are constrained by experimental instrument limitations, and atomic-scale simulations based on empirical force fields are often unreliable due to a lack of accuracy. This problem can be addressed using machine learning techniques, which have recently become widely used in materials research. Machine learning force fields achieve the accuracy of ab initio calculations; however, their implementation in sampling methods is limited by high computational costs, typically several orders of magnitude greater than those of traditional force fields. To overcome this limitation, this thesis has two objectives: (i) developing machine learning force fields with a better accuracy-efficiency trade-off, and (ii) creating accelerated sampling methods to facilitate the use of computationally expensive machine learning force fields and accurately estimate free energy. For the first objective, we enhance the construction of machine learning force fields by focusing on three key factors: the database, the descriptor of local atomic environments, and the regression model. Within the framework of Gaussian process regression, we propose and optimize descriptors based on Fourier-sampled kernels and novel sparse points selection methods for kernel regression. For the second objective, we develop a fast and robust Bayesian sampling scheme for estimating the fully anharmonic free energy, which is crucial for understanding temperature effects in crystalline solids, utilizing an improved adaptive biasing force method. This method performs a thermodynamic integration from a harmonic reference system, where numerical instabilities associated with zero frequencies are screened off. The proposed sampling method significantly improves convergence speed and overall accuracy. We demonstrate the efficiency of the improved method by calculating the second-order derivatives of the free energy, such as the elastic constants, which are computed several hundred times faster than with standard methods. This approach enables the prediction of the thermodynamic properties of tungsten and Ta-Ti-V-W high-entropy alloys at temperatures that cannot be investigated experimentally, up to their melting point, with ab initio accuracy by employing accurate machine learning force fields. An extension of this method allows for the sampling of a specified metastable state without transitions between different energy basins, thereby providing the formation and binding free energies of defective configurations. This development helps to explain the mechanism behind the observation of voids in tungsten, which cannot be explained by existing ab initio calculations. The free energy profile of vacancies in the Ta-Ti-V-W system is also computed for the first time. Finally, we validate the application of this free energy sampling method to liquids. The accuracy and numerical efficiency of the proposed computational framework, which combines machine learning force fields and enhanced sampling methods, opens up numerous possibilities for the reliable prediction of finite-temperature material properties
Styles APA, Harvard, Vancouver, ISO, etc.
2

Sedki, Mohammed. « Échantillonnage préférentiel adaptatif et méthodes bayésiennes approchées appliquées à la génétique des populations ». Phd thesis, Université Montpellier II - Sciences et Techniques du Languedoc, 2012. http://tel.archives-ouvertes.fr/tel-00769095.

Texte intégral
Résumé :
Cette thèse propose et étudie deux techniques d'inférence bayésienne dans les modèles où la vraisemblance possède une composante latente. Dans ce contexte, la vraisemblance d'un jeu de données observé est l'intégrale de la vraisemblance dite complète sur l'espace de la variable latente. On s'intéresse aux cas où l'espace de la variable latente est de très grande dimension et comporte des directions de différentes natures (discrètes et continues), ce qui rend cette intégrale incalculable. Le champs d'application privilégié de cette thèse est l'inférence dans les modèles de génétique des populations. Pour mener leurs études, les généticiens des populations se basent sur l'information génétique extraite des populations du présent et représente la variable observée. L'information incluant l'histoire spatiale et temporelle de l'espèce considérée est inaccessible en général et représente la composante latente. Notre première contribution dans cette thèse suppose que la vraisemblance peut être évaluée via une approximation numériquement coûteuse. Le schéma d'échantillonnage préférentiel adaptatif et multiple (AMIS pour Adaptive Multiple Importance Sampling) de Cornuet et al. nécessite peu d'appels au calcul de la vraisemblance et recycle ces évaluations. Cet algorithme approche la loi a posteriori par un système de particules pondérées. Cette technique est conçue pour pouvoir recycler les simulations obtenues par le processus itératif (la construction séquentielle d'une suite de lois d'importance). Dans les nombreux tests numériques effectués sur des modèles de génétique des populations, l'algorithme AMIS a montré des performances numériques très prometteuses en terme de stabilité. Ces propriétés numériques sont particulièrement adéquates pour notre contexte. Toutefois, la question de la convergence des estimateurs obtenus par cette technique reste largement ouverte. Dans cette thèse, nous montrons des résultats de convergence d'une version légèrement modifiée de cet algorithme. Sur des simulations, nous montrons que ses qualités numériques sont identiques à celles du schéma original. Dans la deuxième contribution de cette thèse, on renonce à l'approximation de la vraisemblance et on supposera seulement que la simulation suivant le modèle (suivant la vraisemblance) est possible. Notre apport est un algorithme ABC séquentiel (Approximate Bayesian Computation). Sur les modèles de la génétique des populations, cette méthode peut se révéler lente lorsqu'on vise une approximation précise de la loi a posteriori. L'algorithme que nous proposons est une amélioration de l'algorithme ABC-SMC de Del Moral et al. que nous optimisons en nombre d'appels aux simulations suivant la vraisemblance, et que nous munissons d'un mécanisme de choix de niveaux d'acceptations auto-calibré. Nous implémentons notre algorithme pour inférer les paramètres d'un scénario évolutif réel et complexe de génétique des populations. Nous montrons que pour la même qualité d'approximation, notre algorithme nécessite deux fois moins de simula- tions par rapport à la méthode ABC avec acceptation couramment utilisée.
Styles APA, Harvard, Vancouver, ISO, etc.
3

Sedki, Mohammed Amechtoh. « Échantillonnage préférentiel adaptatif et méthodes bayésiennes approchées appliquées à la génétique des populations ». Thesis, Montpellier 2, 2012. http://www.theses.fr/2012MON20041/document.

Texte intégral
Résumé :
Dans cette thèse, on propose des techniques d'inférence bayésienne dans les modèles où la vraisemblance possède une composante latente. La vraisemblance d'un jeu de données observé est l'intégrale de la vraisemblance dite complète sur l'espace de la variable latente. On s'intéresse aux cas où l'espace de la variable latente est de très grande dimension et comportes des directions de différentes natures (discrètes et continues), ce qui rend cette intégrale incalculable. Le champs d'application privilégié de cette thèse est l'inférence dans les modèles de génétique des populations. Pour mener leurs études, les généticiens des populations se basent sur l'information génétique extraite des populations du présent et représente la variable observée. L'information incluant l'histoire spatiale et temporelle de l'espèce considérée est inaccessible en général et représente la composante latente. Notre première contribution dans cette thèse suppose que la vraisemblance peut être évaluée via une approximation numériquement coûteuse. Le schéma d'échantillonnage préférentiel adaptatif et multiple (AMIS pour Adaptive Multiple Importance Sampling) de Cornuet et al. [2012] nécessite peu d'appels au calcul de la vraisemblance et recycle ces évaluations. Cet algorithme approche la loi a posteriori par un système de particules pondérées. Cette technique est conçue pour pouvoir recycler les simulations obtenues par le processus itératif (la construction séquentielle d'une suite de lois d'importance). Dans les nombreux tests numériques effectués sur des modèles de génétique des populations, l'algorithme AMIS a montré des performances numériques très prometteuses en terme de stabilité. Ces propriétés numériques sont particulièrement adéquates pour notre contexte. Toutefois, la question de la convergence des estimateurs obtenus parcette technique reste largement ouverte. Dans cette thèse, nous montrons des résultats de convergence d'une version légèrement modifiée de cet algorithme. Sur des simulations, nous montrons que ses qualités numériques sont identiques à celles du schéma original. Dans la deuxième contribution de cette thèse, on renonce à l'approximation de la vraisemblance et onsupposera seulement que la simulation suivant le modèle (suivant la vraisemblance) est possible. Notre apport est un algorithme ABC séquentiel (Approximate Bayesian Computation). Sur les modèles de la génétique des populations, cette méthode peut se révéler lente lorsqu'on vise uneapproximation précise de la loi a posteriori. L'algorithme que nous proposons est une amélioration de l'algorithme ABC-SMC de DelMoral et al. [2012] que nous optimisons en nombre d'appels aux simulations suivant la vraisemblance, et que nous munissons d'un mécanisme de choix de niveauxd'acceptations auto-calibré. Nous implémentons notre algorithme pour inférer les paramètres d'un scénario évolutif réel et complexe de génétique des populations. Nous montrons que pour la même qualité d'approximation, notre algorithme nécessite deux fois moins de simulations par rapport à laméthode ABC avec acceptation couramment utilisée
This thesis consists of two parts which can be read independently.The first part is about the Adaptive Multiple Importance Sampling (AMIS) algorithm presented in Cornuet et al.(2012) provides a significant improvement in stability and Effective Sample Size due to the introduction of the recycling procedure. These numerical properties are particularly adapted to the Bayesian paradigm in population genetics where the modelization involves a large number of parameters. However, the consistency of the AMIS estimator remains largely open. In this work, we provide a novel Adaptive Multiple Importance Sampling scheme corresponding to a slight modification of Cornuet et al. (2012) proposition that preserves the above-mentioned improvements. Finally, using limit theorems on triangular arrays of conditionally independant random variables, we give a consistensy result for the final particle system returned by our new scheme.The second part of this thesis lies in ABC paradigm. Approximate Bayesian Computation has been successfully used in population genetics models to bypass the calculation of the likelihood. These algorithms provide an accurate estimator by comparing the observed dataset to a sample of datasets simulated from the model. Although parallelization is easily achieved, computation times for assuring a suitable approximation quality of the posterior distribution are still long. To alleviate this issue, we propose a sequential algorithm adapted fromDel Moral et al. (2012) which runs twice as fast as traditional ABC algorithms. Itsparameters are calibrated to minimize the number of simulations from the model
Styles APA, Harvard, Vancouver, ISO, etc.
4

Bonneau, Mathieu. « Échantillonnage adaptatif optimal dans les champs de Markov, application à l'échantillonnage d'une espèce adventice ». Toulouse 3, 2012. http://thesesups.ups-tlse.fr/1909/.

Texte intégral
Résumé :
Ce travail de thèse propose deux contributions: (i) la formalisation et la résolution approchée du problème d'échantillonnage adaptatif optimal dans les champs de Markov et (ii) la modélisation du problème d'échantillonnage d'une espèce adventice au sein d'une parcelle cultivée et la conception de stratégies d'échantillonnage adaptatives de cette espèce. Pour le premier point, nous avons d'abord formulé le problème du choix d'une stratégie d'échantillonnage adaptative optimale comme un Processus Décisionnel de Markov (PDM) à horizon fini. Nous avons ensuite proposé un algorithme de résolution approchée de tout PDM à horizon fini dont le modèle est connu. Cet algorithme, nommé Least Square Dynamic Programming (LSDP), combine les concepts de programmation dynamique et d'apprentissage par renforcement. Il a ensuite été adapté pour la conception de stratégies d'échantillonnage adaptatives pour tout type de champ de Markov et tout type de coût d'observation. En pratique, l'algorithme LSDP permet une résolution approchée de problèmes d'échantillonnage de plus grande taille qu'avec la plupart des algorithmes classiques d'apprentissage par renforcement. Pour le deuxième point, nous avons d'abord modélisé la répartition spatiale d'une espèce adventice à l'aide des champs de Markov. Un modèle de coût d'échantillonnage d'une espèce adventice a également été proposé. Ces deux modèles ont ensuite été utilisés pour concevoir de nouvelles stratégies d'échantillonnage adaptatives d'une espèce. Une étude sur données réelles a démontré la supériorité des stratégies adaptatives sur des stratégies statiques, classiquement utilisées en échantillonnage adventice
This work is divided into two parts: (i) the theoretical study of the problem of adaptive sampling in Markov Random Fields (MRF) and (ii) the modeling of the problem of weed sampling in a crop field and the design of adaptive sampling strategies for this problem. For the first point, we first modeled the problem of finding an optimal sampling strategy as a finite horizon Markov Decision Process (MDP). Then, we proposed a generic algorithm for computing an approximate solution to any finite horizon MDP with known model. This algorithm, called Least-Squared Dynamic Programming (LSDP), combines the concepts of dynamic programming and reinforcement learning. It was then adapted to compute adaptive sampling strategies for any type of MRF distributions and observations costs. An experimental evaluation of this algorithm was performed on simulated problems. For the second point, we first modeled the weed spatial repartition in the MRF framework. Second, we have built a cost model adapted to the weed sampling problem. Finally, both models were used together to design adaptive sampling strategies with the LSDP algorithm. Based on real world data, these strategies were compared to a simple heuristic and to static sampling strategies classically used for weed sampling
Styles APA, Harvard, Vancouver, ISO, etc.
5

Oudot, Steve. « Echantillonnage et maillage de surfaces avec garanties ». Palaiseau, Ecole polytechnique, 2005. http://www.theses.fr/2005EPXX0060.

Texte intégral
Résumé :
Dans cette thèse, nous introduisons le concept d'e-échantillon lâche, qui peut être vu comme une version faible de la notion d'e-échantillon. L'avantage majeur des e-échantillons lâches sur les e-échantillons classiques est qu'ils sont plus faciles à vérifier et à construire. Plus précisément, vérifier si un ensemble fini de points est un e-échantillon lâche revient à regarder si les rayons d'un nombre fini de boules sont suffisamment petits. Quand la surface S est lisse, nous montrons que les e-échantillons sont des e-échantillons lâches et réciproquement, à condition que e soit suffisamment petit. Il s'ensuit que les e-échantillons lâches offrent les mêmes garanties opologiques et géométriques que les e-échantillons. Nous étendons ensuite nos résultats au cas où la surface échantillonnée est non lisse en introduisant une nouvelle grandeur, appelée rayon Lipschitzien, qui joue un rôle similaire à lfs dans le cas lisse, mais qui s'avère être bien défini et positif sur une plus large classe d'objets. Plus précisément, il caractérise la classe des surfaces Lipschitziennes, qui inclut entre autres toutes les surfaces lisses par morceaux pour lesquelles la variation des normales aux abords des points singuliers n'est pas trop forte. Notre résultat principal est que, si S est une surface Lipschitzienne et E un ensemble fini de points de S tel que tout point de S est à distance de E au plus une fraction du rayon Lipschitzien de S, alors nous obtenons le même type de garanties que dans le cas lisse, à savoir : la triangulation de Delaunay de E restreinte à S est une variété isotope à S et à distance de Hausdorff O(e) de S, à condition que ses facettes ne soient pas trop aplaties. Nous étendons également ce résultat aux échantillons lâches. Enfin, nous donnons des bornes optimales sur la taille de ces échantillons. Afin de montrer l'intérêt pratique des échantillons lâches, nous présentons ensuite un algorithme très simple capable de construire des maillages certifiés de surfaces. Etant donné une surface S compacte, Lipschitzienne et sans bord, et un paramètre positif e, l'algorithme génère un e-échantillon lâche E de S de taille optimale, ainsi qu'un maillage triangulaire extrait de la triangulation de Delaunay de E. Grâce à nos résultats théoriques, nous pouvons garantir que ce maillage triangulaire est une bonne approximation de S, tant sur le plan topologique que géométrique, et ce sous des hypothèses raisonnables sur le paramètre d'entrée e. Un aspect remarquable de l'algorithme est que S n'a besoin d'être connue qu'à travers un oracle capable de détecter les points d'intersection de n'importe quel segment avec la surface. Ceci rend l'algorithme assez générique pour être utilisé dans de nombreux contextes pratiques et sur une large gamme de surfaces. Nous illustrons cette généricité à travers une série d'applications : maillage de surfaces implicites, remaillage de polyèdres, ondage de surfaces inconnues, maillage de volumes.
Styles APA, Harvard, Vancouver, ISO, etc.
6

Yan, Alix. « Restauration d'images corrigées par optique adaptative pour l'observation astronomique et de satellites : approche marginale par échantillonnage ». Electronic Thesis or Diss., Université Paris sciences et lettres, 2023. http://www.theses.fr/2023UPSLO012.

Texte intégral
Résumé :
La restauration d’images corrigées par optique adaptative est particulièrement difficile, du fait de la méconnaissance de la réponse impulsionnelle du système optique (PSF pour point spread function) en plus des difficultés usuelles. Une approche efficace est de marginaliser l’objet en dehors du problème et d’estimer la PSF et les hyper-paramètres (liés à l’objet et au bruit) seuls avant la déconvolution. Des travaux récents ont appliqué cette déconvolution marginale, combinée à un modèle paramétrique de PSF, à des images astronomiques et de satellites. Cette thèse vise à proposer une extension de cette méthode. En particulier, nous utilisons un algorithme Monte-Carlo par chaînes de Markov (MCMC), afin d’inclure des incertitudes sur les paramètres et d'étudier leur corrélation a posteriori. Nous présentons des résultats détaillés obtenus sur des images astronomiques, simulées et expérimentales. Nous présentons également des premiers éléments sur l’ajout d’une contrainte de support sur l’objet
Adaptive-optics-corrected image restoration is particularly difficult, as it suffers from the poor knowledge on the point spread function (PSF). One efficient approach is to marginalize the object out of the problem, and to estimate the PSF and (object and noise) hyper-parameters only before the deconvolution. Recent works have applied this marginal deconvolution, combined to a parametric model for the PSF, to astronomical and satellite images. This thesis aims at extending this previous method, using Markov chain Monte Carlo (MCMC) algorithms. This will enable us to derive uncertainties on the estimates, as well as to study posterior correlation between the parameters. We present detailled results on simulated and experimental, astronomical and satellite data. We also provide elements on the impact of a support constraint on the object
Styles APA, Harvard, Vancouver, ISO, etc.
7

Kourda, Ferid. « Simulation d'alimentation à découpage sur micro-ordinateur ». Lyon, INSA, 1989. http://www.theses.fr/1989ISAL0031.

Texte intégral
Résumé :
En vue du développement industriel d'alimentation continu- continu de 3KW. Nous avons réalisé une maquette avec une structure en demi-pont asymétrique. Pour minimiser les contraintes exercées sur les composants et prévoir les fonctionnements transitoires, nous avons développé un logiciel de simulation spécifique implanté sur micro ordinateur. Nous avons utilisé la discrétisation des équations d'état continu et le calcul de la matrice de transition nous a conduit à porter une attention particulière à la période d'échantillonnage. Sa détermination a pu se faire par le calcul de la valeur propre dominante Puis nous avons comparé les résultats de cette simulation ; incluant la boucle de régulation; avec ceux résultant d'un algorithme obtenu par une autre approche mathématique du problème faisant intervenir la notion nouvelle de "circuit relatif moyen". Nous avons pu observer une très bonne concordance avec les oscillogrammes relevés sur la maquette expérimentale. Cette simulation nous a permis enfin d'élaborer rapidement un prototype industrialisable.
Styles APA, Harvard, Vancouver, ISO, etc.
8

Burlion, Laurent. « Contribution à l'analyse et à la commande de systèmes non linéaires à commande échantillonnée ». Phd thesis, Université Paris Sud - Paris XI, 2007. http://tel.archives-ouvertes.fr/tel-00461750.

Texte intégral
Résumé :
A la frontière des systèmes non linéaires continus et discrets, la classe des systèmes non linéaires à commande échantillonnée est une classe de systèmes à part entière qui a stimulé et stimule toujours de nombreuses recherches. Le sujet est d'autant plus important qu'il a été trop souvent sous estimé au profit de la recherche sur les commandes continues alors que paradoxalement les commandes sont principalement implémentées numériquement sur les applications industrielles actuelles. S'appuyant sur les dernières recherches du domaine, cette thèse se veut à la fois une contribution à l'étude et à la synthèse de lois de commande échantillonnées pour certaines classes de systèmes non linéaires.
Styles APA, Harvard, Vancouver, ISO, etc.
9

Claisse, Alexandra. « Modèle de reconstruction d'une surface échantillonnée par une méthode de ligne de niveau, et applications ». Paris 6, 2009. https://tel.archives-ouvertes.fr/tel-00443640.

Texte intégral
Résumé :
La reconstruction de surface, à partir de données échantillonnées, est un thème de recherche important et très actif depuis quelques années. L'enjeu est de pouvoir générer toute sorte de géométries et de topologies. Le but de ce travail est de trouver une surface régulière Gamma (typiquement de classe C2), passant au plus près de tous les points d'un échantillon V donné, c'est-à-dire telle que la distance euclidienne d(x, Gamma) soit minimale pour tout x dans V. Pour cela, on formule le problème à l'aide d'une équation aux dérivées partielles qui va caractériser l'évolution d'une surface Gamma(t). Cette EDP est composée d'un terme d'attraction, qui permet à Gamma(t) d'avancer jusqu'à V, et d'un terme de tension de surface, dont le rôle est de préserver la régularité de Gamma(t) au cours du temps. On montre d'abord que le problème est bien posé, c'est-à-dire que sa solution existe et qu'elle est unique. Cette EDP est ensuite résolue numériquement à l'aide de la méthode des lignes de niveau, et grâce à des schémas numériques spécifiques (avec approximation des dérivées d'ordre un et deux en espace en chaque noeud du maillage), sur des triangulations adaptées et anisotropes (pour améliorer la précision du résultat). D'un point de vue analyse, on montre que ces schémas sont consistants et stables en norme L2. Des exemples d'applications sont présentés pour illustrer l'efficacité de notre approche.
Styles APA, Harvard, Vancouver, ISO, etc.
10

Claisse, Alexandra. « Modèle de reconstruction d'une surface échantillonnée par un méthode de ligne de niveau, et applications ». Phd thesis, Université Pierre et Marie Curie - Paris VI, 2009. http://tel.archives-ouvertes.fr/tel-00443640.

Texte intégral
Résumé :
La reconstruction de surface, à partir de données échantillonnées, est un thème de recherche important et très actif depuis quelques années. L'enjeu est de pouvoir générer toute sorte de géométries et de topologies. Le but de ce travail est de trouver une surface régulière Gamma (typiquement de classe C2), passant au plus près de tous les points d'un échantillon V donné, c'est-à-dire telle que la distance euclidienne d(x, Gamma) soit minimale pour tout x dans V. Pour cela, on formule le problème à l'aide d'une équation aux dérivées partielles qui va caractériser l'évolution d'une surface Gamma(t). Cette EDP est composée d'un terme d'attraction, qui permet à Gamma(t) d'avancer jusqu'à V, et d'un terme de tension de surface, dont le rôle est de préserver la régularité de Gamma(t) au cours du temps. On montre d'abord que le problème est bien posé, c'est-à-dire que sa solution existe et qu'elle est unique. Cette EDP est ensuite résolue numériquement à l'aide de la méthode des lignes de niveau, et grâce à des schémas numériques spécifiques (avec approximation des dérivées d'ordre un et deux en espace en chaque noeud du maillage), sur des triangulations adaptées et anisotropes (pour améliorer la précision du résultat). D'un point de vue analyse, on montre que ces schémas sont consistants et stables en norme L2. Des exemples d'applications sont présentés pour illustrer l'efficacité de notre approche.
Styles APA, Harvard, Vancouver, ISO, etc.

Livres sur le sujet "Échantillonage adaptatif"

1

Mark, Chang, dir. Adaptive design methods in clinical trials. 2e éd. Boca Raton : Taylor & Francis, 2012.

Trouver le texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
2

Mark, Chang, dir. Adaptive design methods in clinical trails. Boca Raton, FL : Chapman & Hall/CRC, 2007.

Trouver le texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
3

Chang, Mark. Adaptive design theory and implementation using SAS and R. Boca Raton, FL : CRC Press, 2007.

Trouver le texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
4

Chang, Mark. Introductory adaptive trial designs : A practical guide with R. Boca Raton, Fla : CRC Press, 2015.

Trouver le texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
5

Network and Adaptive Sampling Techniques. Taylor & Francis Group, 2014.

Trouver le texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
6

Adaptive design theory and implementation using SAS and R. Boca Raton : CRC Press, 2014.

Trouver le texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
7

Chang, Mark. Adaptive Design Theory and Implementation Using SAS and R. Taylor & Francis Group, 2014.

Trouver le texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
8

Chang, Mark. Adaptive Design Theory and Implementation Using SAS and R. Taylor & Francis Group, 2016.

Trouver le texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
9

Adaptive design theory and implementation using SAS and R. Boca Raton : Taylor & Francis, 2008.

Trouver le texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
10

Introductory Adaptive Trial Designs : A Practical Guide with R. Taylor & Francis Group, 2015.

Trouver le texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
Nous offrons des réductions sur tous les plans premium pour les auteurs dont les œuvres sont incluses dans des sélections littéraires thématiques. Contactez-nous pour obtenir un code promo unique!

Vers la bibliographie