Auswahl der wissenschaftlichen Literatur zum Thema „Échantillonage adaptatif“

Geben Sie eine Quelle nach APA, MLA, Chicago, Harvard und anderen Zitierweisen an

Wählen Sie eine Art der Quelle aus:

Machen Sie sich mit den Listen der aktuellen Artikel, Bücher, Dissertationen, Berichten und anderer wissenschaftlichen Quellen zum Thema "Échantillonage adaptatif" bekannt.

Neben jedem Werk im Literaturverzeichnis ist die Option "Zur Bibliographie hinzufügen" verfügbar. Nutzen Sie sie, wird Ihre bibliographische Angabe des gewählten Werkes nach der nötigen Zitierweise (APA, MLA, Harvard, Chicago, Vancouver usw.) automatisch gestaltet.

Sie können auch den vollen Text der wissenschaftlichen Publikation im PDF-Format herunterladen und eine Online-Annotation der Arbeit lesen, wenn die relevanten Parameter in den Metadaten verfügbar sind.

Zeitschriftenartikel zum Thema "Échantillonage adaptatif"

1

St-Laurent, Méi-Ra. „Quand le metal flirte avec ABBA : Analyse des transformations formelles et thématiques de « Summer Night City »“. Articles 34, Nr. 1-2 (26.05.2015): 135–51. http://dx.doi.org/10.7202/1030873ar.

Der volle Inhalt der Quelle
Annotation:
Une des caractéristiques fondamentales de la musique populaire demeure la réutilisation constante du matériel musical en provenance d’une multitude de styles et de courants (remix, adaptation, échantillonnage, etc.). Cette pratique nommée la transphonographie provient de l’intertextualité, un concept élaboré par le littéraire Gérard Genette et adapté à la musique populaire par le musicologue Serge Lacasse. Dans ce texte, l’auteur emploiera la transphonographie pour relever les différentes transformations musicales et thématiques survenant dans la chanson « Summer Night City » de ABBA, lorsque celle-ci est reprise par le groupe de gothique metal symphonique Therion. En plus des éléments musicaux propres à la musique d’ABBA modifiés pour correspondre à l’esthétique de Therion, ces transformations induisent aussi un changement dans la signification même de la chanson.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
2

TAINTURIER, J., N. ROUSSELOT und J.-P. JOSEPH. „L'information lors de la crise du Levothyrox en France en 2017. Etude du vécu des patients“. EXERCER 31, Nr. 167 (01.11.2020): 395–401. http://dx.doi.org/10.56746/exercer.2020.167.395.

Der volle Inhalt der Quelle
Annotation:
Contexte. En 2017, 2,3 millions de patients utilisaient le Levothyrox®, du laboratoire Merck, lorsque la formule a changé. Cette nouvelle formule a suscité plus de 17 300 déclarations d’effets indésirables. La crise a d’abord émergé sur les réseaux sociaux, puis a pris de l’ampleur dans les médias avant que les autorités sanitaires ne s’en saisissent. Objectifs. Décrire et analyser comment les patients ont vécu l’information lors de la crise du Levothyrox® en France en 2017, puis les sources d’information utilisées par les patients. Méthode. Analyse qualitative phénoménologique interprétative avec recueil des données par entretiens individuels semi-dirigés auprès de patients en cabinet de médecine générale. Réalisation d’un échantillonnage à variation maximale. Analyse assistée par logiciel NVivo 12® et triangulation par deux chercheurs. Résultats. 15 entretiens ont été menés. Lors de la crise, les patients ont ressenti un défaut d’information auprès de leurs sources habituelles entraînant une adaptation de leur comportement : recherche active d’information, d’où une multiplication des sources et des contenus. Les vécus étaient différents selon les sources d’information. La surexposition à l’information a majoré le sentiment de désinformation et la peur face à un phénomène incompris. Plusieurs facteurs protecteurs apparaissaient de manière spontanée ou adaptative : avoir eu une information précoce par un professionnel de santé de confiance, avoir refusé de s’informer pendant la crise, ne pas s’être senti concerné, adapter son comportement pour se protéger seul. Conclusion. Les patients sont de plus en plus informés, ce qui ne signifie pas qu’ils le sont de mieux en mieux. Lors d’une crise, le phénomène atteint son paroxysme, avec déstabilisation et perte de repères. Le rôle du médecin comme source d’information en santé devient alors déterminant.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
3

THOMAZO, M., und B. SOULIE. „CHEMINEMENT ET SELECTION D'UNE SOURCE D'INFORMATION EN MEDECINE DE PREMIER RECOURS : PROPOSITION D'UN MODELE EXPLICATIF PAR THEORISATION ANCREE“. EXERCER 34, Nr. 192 (01.04.2023): 148–53. http://dx.doi.org/10.56746/exercer.2023.192.148.

Der volle Inhalt der Quelle
Annotation:
Introduction. Des décisions thérapeutiques sont prises lors de chaque consultation, et ce processus décisionnel est aujourd’hui bien étudié dans la littérature psychologique. Ces décisions sont censées se fonder sur le concept d’evidence-based medicine associant à la fois les données actualisées de la science, l’expertise empirique du praticien et les préférences du patient. Lorsqu’un choix doit être fait dans la prise en compte d’une source d’information, plusieurs profils décisionnaires existent. Objectif. Proposer un modèle théorique expliquant le cheminement d’une source d’information dans une prise de décision. Méthode. Étude qualitative inspirée de la théorisation ancrée avec échantillonnage théorique et processus d’itération en comparaison constante. Résultats. Les médecins généralistes déléguaient une partie de la critique des sources d’information à différents intermédiaires. L’accessibilité de ces informations formait un premier filtre : langue native, technologie, fatigue, investissement nécessaire et éloignement géographique des interlocuteurs. Les préférences comme l’indépendance, l’empirisme ou la formation universitaire étaient un second filtre. La confirmation par les pairs venait potentialiser certaines informations via la convivialité, les liens affectifs et la réputation. Une vigilance et une adaptation au contexte étaient les derniers filtres. Conclusion. L’origine des décisions est multifactorielle, et l’enseignement de ces facteurs pourrait permettre aux futurs médecins généralistes de mieux reconnaître certains biais cognitifs.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
4

HUET, L., Y. BARNIER und H. DONNADIEU-RIGOLE. „Chemsex : risques ressentis et stratégies d'adaptation“. EXERCER 35, Nr. 201 (01.03.2024): 119–25. http://dx.doi.org/10.56746/exercer.2024.201.119.

Der volle Inhalt der Quelle
Annotation:
Introduction. Il existe depuis une dizaine d’années une augmentation des signaux sanitaires en France liés au chemsex chez les hommes ayant des rapports avec des hommes (HSH). Objectif. Identifier les risques ressentis par les HSH pratiquant le chemsex et leurs stratégies d’adaptation. Méthode. Étude qualitative basée sur 11 entretiens individuels semi-dirigés et un focus group de 4 chemsexeurs. Échantillonnage raisonné des participants recrutés sur la base du volontariat et par réseau. Enregistrement audio des entretiens puis retranscription mot à mot. Analyse phénoménologique des données puis production de catégories par comparaison constante entre les données et les construits de l’analyse. Résultats. Le risque majeur ressenti était le risque addictif. Le risque infectieux était la dangerosité des produits, sur lesquels se concentraient la prévention et la réduction des risques et des dommages (RdRD), le risque socioprofessionnel, l’impact sur la qualité de la vie sexuelle et la santé mentale, la notion de consentement. Il existait une multiplicité de techniques de contrôle et de réduction des risques par les usagers, mises en place de façon autonome. Ces techniques résultaient d’un apprentissage lié aux expériences personnelles, d’informations transmises par les pairs, le milieu associatif et médical. Discussion. Il est crucial de promouvoir l’accès à des programmes de prévention et de RdRD pour garantir la connaissance des risques associés au chemsex et ainsi une meilleure adaptation des comportements. Pour atteindre cet objectif, il est important de diversifier les stratégies de prévention et de RdRD afin de sensibiliser les chemsexeurs à ces multiples problématiques.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
5

Soloviev, Pierre, Guibien Cléophas Zerbo, Djingdia Lompo, Lucien Bakré Yoda und Dominique Jacques. „Acacia senegal au Burkina Faso : état de la ressource et potentiel productif“. BOIS & FORETS DES TROPIQUES 300, Nr. 300 (01.06.2009): 15. http://dx.doi.org/10.19182/bft2009.300.a20411.

Der volle Inhalt der Quelle
Annotation:
Acacia senegal est une espèce largement répandue dans les zones sèches d¿Afrique. Elle constitue la principale source de production de gomme arabique, un hydrocolloïde utilisé localement ainsi que pour de nombreuses applications industrielles alimentaires ou non. Un inventaire réalisé en 1997 au Burkina Faso a établi une superficie en peuplements naturels de 286 000 ha. Des travaux ultérieurs ont démontré la présence dans ces peuplements d¿espèces apparentées, du sous-genre Aculeiferum (Acacia dudgeoni, Acacia gourmaensis et Acacia laeta). Une actualisation de l¿état des peuplements naturels et artificiels est apparue nécessaire dans le cadre de l¿adaptation de la stratégie de développement de la filière de la gomme arabique. La méthodologie mise en oeuvre a comporté deux phases, la première consistant à identifier les peuplements naturels et artificiels, la seconde à réaliser un inventaire par placettes d¿échantillonnage en vue de caractériser la composition spécifique et la densité des peuplements naturels. L¿étude a abouti à identifier des superficies fort limitées en peuplements naturels et artificiels de A. senegal, ainsi qu¿à constater l¿importance des peuplements naturels de A. laeta et des peuplements mélangés des espèces du sous-genre Aculeiferum. L¿aire naturelle de distribution de A. senegal au Burkina Faso a été précisée et les stations ont été caractérisées. Le potentiel de production de gomme arabique issue de A. senegal s¿établit à environ 25 tonnes/an. En conclusion, l¿accroissement de la production de gomme arabique de A. senegal au Burkina Faso implique l¿établissement de gommeraies artificielles. Un potentiel de production de gommes issues de A. seyal et A. laeta existe. (Résumé d'auteur)
APA, Harvard, Vancouver, ISO und andere Zitierweisen
6

Tindano, Elycée, Aїssata Traore und Paulin Ouoba. „Ecologie et mécanismes d’adaptation à la sécheresse de <i>Caralluma adscendens</i> N.E.Br. à l’Ouest du Burkina Faso“. International Journal of Biological and Chemical Sciences 17, Nr. 6 (18.01.2024): 2412–28. http://dx.doi.org/10.4314/ijbcs.v17i6.22.

Der volle Inhalt der Quelle
Annotation:
Les inselbergs sont des affleurements rocheux caractérisés par la précarité de leurs facteurs édaphiques et microclimatiques. Ce sont des biotopes dont les espèces qui les colonisent ont la capacité de s’adapter à ce type d’environnement. C’est ce qui justifie l’étude sur Caralluma adscendens qui est l’une des espèces fréquentes sur les inselbergs du Burkina Faso. L’objectif de cette étude est de contribuer à la connaissance de l’écologie et des mécanismes d’adaptation de l’espèce à l’environnement xérique. Pour ce faire, une caractérisation des communautés végétales à C. adscendens s’est faite à l’aide de données floristiques collectées sur la base d’un échantillonnage orienté. Pour l’étude des mécanismes d’adaptation, plusieurs caractères physiologiques et morphologiques ont été évalués. Le cortège floristique des communautés végétales à C. adscendens est de 57 espèces réparties dans 45 genres et 23 familles dont les Poaceae (30%), les Fabaceae-Faboideae (12%) et les Cyperaceae (7%) sont les mieux représentées. Les mécanismes d’adaptation mis en place par l’espèce sont, la réduction des feuilles en feuilles vestigiales, le transfert des stomates des feuilles aux tiges, le nombre réduit de stomate par mm² et la grande capacité de rétention d’eau de l’espèce. Ces résultats témoignent la résistance de l’espèce à une perte d’eau importante et sa capacité à s’adapter à un environnement xérique. Inselbergs are rocky outcrops characterised by precarious edaphic and microclimatic factors. They are biotopes in which the species that colonise them are able to adapt to this type of environment. This justifies the study of Caralluma adscendens, which is one of the most common species found on inselbergs of Burkina Faso. The aim of this study was to contribute to our knowledge of the ecology and adaptation mechanisms of the species to the xeric environment. To this end, the plant communities of C. adscendens were characterised using floristic data collected on the basis of targeted sampling. Several physiological and morphological characteristics were assessed to study the adaptation mechanisms. The floristic assemblage of plant communities with C. adscendens comprises 57 species in 45 genera and 23 families, of which Poaceae (30%), Fabaceae-Faboideae (12%) and Cyperaceae (7%) were the best represented. The adaptation mechanisms put in place by the species were the reduction of leaves to vestigial leaves, the transfer of stomata from the leaves to the stems, the reduced number of stomata per mm² and the species' high water retention capacity. These results demonstrate the species' resistance to significant water loss and its ability to adapt to a xeric environment.
APA, Harvard, Vancouver, ISO und andere Zitierweisen

Dissertationen zum Thema "Échantillonage adaptatif"

1

Zhong, Anruo. „Machine learning and adaptive sampling to predict finite-temperature properties in metallic materials at the atomic scale“. Electronic Thesis or Diss., université Paris-Saclay, 2024. http://www.theses.fr/2024UPASP107.

Der volle Inhalt der Quelle
Annotation:
Les propriétés et le comportement des matériaux dans des conditions extrêmes sont essentiels pour les systèmes énergétiques tels que les réacteurs de fission et de fusion. Cependant, prédire avec précision les propriétés des matériaux à haute température reste un défi. Les mesures directes de ces propriétés sont limitées par les instruments expérimentaux, et les simulations à l'échelle atomique basées sur des champs de force empiriques sont souvent peu fiables en raison d'un manque de précision. Ce problème peut être résolu à l'aide de techniques d'apprentissage statistique, qui ont récemment vu leur utilisation exploser en science des matériaux. Les champs de force construits par apprentissage statistique atteignent le degré de précision des calculs ab initio ; cependant, leur mise en œuvre dans les méthodes d'échantillonnage est limitée par des coûts de calcul élevés, généralement supérieurs de plusieurs ordres de grandeur à ceux des champs de force traditionnels. Pour surmonter cette limitation, deux objectifs sont poursuivis dans cette thèse : (i) développer des champs de force par apprentissage statistique avec un meilleur compromis précision-efficacité et (ii) créer des méthodes accélérées d'échantillonnage de l'énergie libre afin de faciliter l'utilisation de champs de force d'apprentissage statistique coûteux en termes de calcul. Pour le premier objectif, nous améliorons la construction des champs de force d'apprentissage statistique en nous concentrant sur trois facteurs clés : la base de données, le descripteur de l'environnement atomique local et le modèle de régression. Dans le cadre de la régression par processus gaussien, nous proposons et optimisons des descripteurs basés sur des noyaux échantillonnés par la transformée de Fourier ainsi que de nouvelles méthodes de sélection de points épars pour la régression par noyau. Pour le deuxième objectif, nous développons un schéma d'échantillonnage bayésien rapide et robuste pour estimer l'énergie libre anharmonique, qui est cruciale pour comprendre les effets de la température sur les solides cristallins, à l'aide d'une méthode de force de biais adaptative améliorée. Cette méthode effectue une intégration thermodynamique à partir d'un système de référence harmonique, où les instabilités numériques associées aux fréquences nulles sont éliminées. La méthode d'échantillonnage proposée améliore considérablement la vitesse de convergence et la précision globale. Nous démontrons l'efficacité de la méthode améliorée en calculant les dérivées de second ordre de l'énergie libre, telles que les constantes élastiques, avec une rapidité plusieurs centaines de fois supérieure à celle des méthodes standard. Cette approche permet de prédire les propriétés thermodynamiques du tungstène et des alliages à haute entropie Ta-Ti-V-W à des températures qui ne peuvent être étudiées expérimentalement, jusqu'à leur point de fusion, avec une précision ab initio grâce à l'utilisation de champs de force construits par apprentissage statistique. Une extension de cette méthode permet l'échantillonnage d'un état métastable spécifique sans transition entre différents bassins d'énergie, fournissant ainsi l'énergie libre de formation et de liaison d'une configuration défectueuse. Ce développement aide à expliquer le mécanisme derrière l'observation des cavités dans le tungstène, mécanisme qui ne peut pas être expliqué par les calculs ab initio existants. Le profil d'énergie libre des lacunes dans le système Ta-Ti-V-W est également calculé pour la première fois. Enfin, nous validons l'application de cette méthode d'échantillonnage de l'énergie libre aux liquides. La précision et l'efficacité numérique du cadre de calcul proposé, qui combine des champs de force d'apprentissage statistique et des méthodes d'échantillonnage améliorées, ouvrent de nombreuses possibilités pour la prédiction fiable des propriétés des matériaux à température finie
The properties and behaviors of materials under extreme conditions are essential for energy systems such as fission and fusion reactors. However, accurately predicting the properties of materials at high temperatures remains challenging. Direct measurements of these properties are constrained by experimental instrument limitations, and atomic-scale simulations based on empirical force fields are often unreliable due to a lack of accuracy. This problem can be addressed using machine learning techniques, which have recently become widely used in materials research. Machine learning force fields achieve the accuracy of ab initio calculations; however, their implementation in sampling methods is limited by high computational costs, typically several orders of magnitude greater than those of traditional force fields. To overcome this limitation, this thesis has two objectives: (i) developing machine learning force fields with a better accuracy-efficiency trade-off, and (ii) creating accelerated sampling methods to facilitate the use of computationally expensive machine learning force fields and accurately estimate free energy. For the first objective, we enhance the construction of machine learning force fields by focusing on three key factors: the database, the descriptor of local atomic environments, and the regression model. Within the framework of Gaussian process regression, we propose and optimize descriptors based on Fourier-sampled kernels and novel sparse points selection methods for kernel regression. For the second objective, we develop a fast and robust Bayesian sampling scheme for estimating the fully anharmonic free energy, which is crucial for understanding temperature effects in crystalline solids, utilizing an improved adaptive biasing force method. This method performs a thermodynamic integration from a harmonic reference system, where numerical instabilities associated with zero frequencies are screened off. The proposed sampling method significantly improves convergence speed and overall accuracy. We demonstrate the efficiency of the improved method by calculating the second-order derivatives of the free energy, such as the elastic constants, which are computed several hundred times faster than with standard methods. This approach enables the prediction of the thermodynamic properties of tungsten and Ta-Ti-V-W high-entropy alloys at temperatures that cannot be investigated experimentally, up to their melting point, with ab initio accuracy by employing accurate machine learning force fields. An extension of this method allows for the sampling of a specified metastable state without transitions between different energy basins, thereby providing the formation and binding free energies of defective configurations. This development helps to explain the mechanism behind the observation of voids in tungsten, which cannot be explained by existing ab initio calculations. The free energy profile of vacancies in the Ta-Ti-V-W system is also computed for the first time. Finally, we validate the application of this free energy sampling method to liquids. The accuracy and numerical efficiency of the proposed computational framework, which combines machine learning force fields and enhanced sampling methods, opens up numerous possibilities for the reliable prediction of finite-temperature material properties
APA, Harvard, Vancouver, ISO und andere Zitierweisen
2

Sedki, Mohammed. „Échantillonnage préférentiel adaptatif et méthodes bayésiennes approchées appliquées à la génétique des populations“. Phd thesis, Université Montpellier II - Sciences et Techniques du Languedoc, 2012. http://tel.archives-ouvertes.fr/tel-00769095.

Der volle Inhalt der Quelle
Annotation:
Cette thèse propose et étudie deux techniques d'inférence bayésienne dans les modèles où la vraisemblance possède une composante latente. Dans ce contexte, la vraisemblance d'un jeu de données observé est l'intégrale de la vraisemblance dite complète sur l'espace de la variable latente. On s'intéresse aux cas où l'espace de la variable latente est de très grande dimension et comporte des directions de différentes natures (discrètes et continues), ce qui rend cette intégrale incalculable. Le champs d'application privilégié de cette thèse est l'inférence dans les modèles de génétique des populations. Pour mener leurs études, les généticiens des populations se basent sur l'information génétique extraite des populations du présent et représente la variable observée. L'information incluant l'histoire spatiale et temporelle de l'espèce considérée est inaccessible en général et représente la composante latente. Notre première contribution dans cette thèse suppose que la vraisemblance peut être évaluée via une approximation numériquement coûteuse. Le schéma d'échantillonnage préférentiel adaptatif et multiple (AMIS pour Adaptive Multiple Importance Sampling) de Cornuet et al. nécessite peu d'appels au calcul de la vraisemblance et recycle ces évaluations. Cet algorithme approche la loi a posteriori par un système de particules pondérées. Cette technique est conçue pour pouvoir recycler les simulations obtenues par le processus itératif (la construction séquentielle d'une suite de lois d'importance). Dans les nombreux tests numériques effectués sur des modèles de génétique des populations, l'algorithme AMIS a montré des performances numériques très prometteuses en terme de stabilité. Ces propriétés numériques sont particulièrement adéquates pour notre contexte. Toutefois, la question de la convergence des estimateurs obtenus par cette technique reste largement ouverte. Dans cette thèse, nous montrons des résultats de convergence d'une version légèrement modifiée de cet algorithme. Sur des simulations, nous montrons que ses qualités numériques sont identiques à celles du schéma original. Dans la deuxième contribution de cette thèse, on renonce à l'approximation de la vraisemblance et on supposera seulement que la simulation suivant le modèle (suivant la vraisemblance) est possible. Notre apport est un algorithme ABC séquentiel (Approximate Bayesian Computation). Sur les modèles de la génétique des populations, cette méthode peut se révéler lente lorsqu'on vise une approximation précise de la loi a posteriori. L'algorithme que nous proposons est une amélioration de l'algorithme ABC-SMC de Del Moral et al. que nous optimisons en nombre d'appels aux simulations suivant la vraisemblance, et que nous munissons d'un mécanisme de choix de niveaux d'acceptations auto-calibré. Nous implémentons notre algorithme pour inférer les paramètres d'un scénario évolutif réel et complexe de génétique des populations. Nous montrons que pour la même qualité d'approximation, notre algorithme nécessite deux fois moins de simula- tions par rapport à la méthode ABC avec acceptation couramment utilisée.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
3

Sedki, Mohammed Amechtoh. „Échantillonnage préférentiel adaptatif et méthodes bayésiennes approchées appliquées à la génétique des populations“. Thesis, Montpellier 2, 2012. http://www.theses.fr/2012MON20041/document.

Der volle Inhalt der Quelle
Annotation:
Dans cette thèse, on propose des techniques d'inférence bayésienne dans les modèles où la vraisemblance possède une composante latente. La vraisemblance d'un jeu de données observé est l'intégrale de la vraisemblance dite complète sur l'espace de la variable latente. On s'intéresse aux cas où l'espace de la variable latente est de très grande dimension et comportes des directions de différentes natures (discrètes et continues), ce qui rend cette intégrale incalculable. Le champs d'application privilégié de cette thèse est l'inférence dans les modèles de génétique des populations. Pour mener leurs études, les généticiens des populations se basent sur l'information génétique extraite des populations du présent et représente la variable observée. L'information incluant l'histoire spatiale et temporelle de l'espèce considérée est inaccessible en général et représente la composante latente. Notre première contribution dans cette thèse suppose que la vraisemblance peut être évaluée via une approximation numériquement coûteuse. Le schéma d'échantillonnage préférentiel adaptatif et multiple (AMIS pour Adaptive Multiple Importance Sampling) de Cornuet et al. [2012] nécessite peu d'appels au calcul de la vraisemblance et recycle ces évaluations. Cet algorithme approche la loi a posteriori par un système de particules pondérées. Cette technique est conçue pour pouvoir recycler les simulations obtenues par le processus itératif (la construction séquentielle d'une suite de lois d'importance). Dans les nombreux tests numériques effectués sur des modèles de génétique des populations, l'algorithme AMIS a montré des performances numériques très prometteuses en terme de stabilité. Ces propriétés numériques sont particulièrement adéquates pour notre contexte. Toutefois, la question de la convergence des estimateurs obtenus parcette technique reste largement ouverte. Dans cette thèse, nous montrons des résultats de convergence d'une version légèrement modifiée de cet algorithme. Sur des simulations, nous montrons que ses qualités numériques sont identiques à celles du schéma original. Dans la deuxième contribution de cette thèse, on renonce à l'approximation de la vraisemblance et onsupposera seulement que la simulation suivant le modèle (suivant la vraisemblance) est possible. Notre apport est un algorithme ABC séquentiel (Approximate Bayesian Computation). Sur les modèles de la génétique des populations, cette méthode peut se révéler lente lorsqu'on vise uneapproximation précise de la loi a posteriori. L'algorithme que nous proposons est une amélioration de l'algorithme ABC-SMC de DelMoral et al. [2012] que nous optimisons en nombre d'appels aux simulations suivant la vraisemblance, et que nous munissons d'un mécanisme de choix de niveauxd'acceptations auto-calibré. Nous implémentons notre algorithme pour inférer les paramètres d'un scénario évolutif réel et complexe de génétique des populations. Nous montrons que pour la même qualité d'approximation, notre algorithme nécessite deux fois moins de simulations par rapport à laméthode ABC avec acceptation couramment utilisée
This thesis consists of two parts which can be read independently.The first part is about the Adaptive Multiple Importance Sampling (AMIS) algorithm presented in Cornuet et al.(2012) provides a significant improvement in stability and Effective Sample Size due to the introduction of the recycling procedure. These numerical properties are particularly adapted to the Bayesian paradigm in population genetics where the modelization involves a large number of parameters. However, the consistency of the AMIS estimator remains largely open. In this work, we provide a novel Adaptive Multiple Importance Sampling scheme corresponding to a slight modification of Cornuet et al. (2012) proposition that preserves the above-mentioned improvements. Finally, using limit theorems on triangular arrays of conditionally independant random variables, we give a consistensy result for the final particle system returned by our new scheme.The second part of this thesis lies in ABC paradigm. Approximate Bayesian Computation has been successfully used in population genetics models to bypass the calculation of the likelihood. These algorithms provide an accurate estimator by comparing the observed dataset to a sample of datasets simulated from the model. Although parallelization is easily achieved, computation times for assuring a suitable approximation quality of the posterior distribution are still long. To alleviate this issue, we propose a sequential algorithm adapted fromDel Moral et al. (2012) which runs twice as fast as traditional ABC algorithms. Itsparameters are calibrated to minimize the number of simulations from the model
APA, Harvard, Vancouver, ISO und andere Zitierweisen
4

Bonneau, Mathieu. „Échantillonnage adaptatif optimal dans les champs de Markov, application à l'échantillonnage d'une espèce adventice“. Toulouse 3, 2012. http://thesesups.ups-tlse.fr/1909/.

Der volle Inhalt der Quelle
Annotation:
Ce travail de thèse propose deux contributions: (i) la formalisation et la résolution approchée du problème d'échantillonnage adaptatif optimal dans les champs de Markov et (ii) la modélisation du problème d'échantillonnage d'une espèce adventice au sein d'une parcelle cultivée et la conception de stratégies d'échantillonnage adaptatives de cette espèce. Pour le premier point, nous avons d'abord formulé le problème du choix d'une stratégie d'échantillonnage adaptative optimale comme un Processus Décisionnel de Markov (PDM) à horizon fini. Nous avons ensuite proposé un algorithme de résolution approchée de tout PDM à horizon fini dont le modèle est connu. Cet algorithme, nommé Least Square Dynamic Programming (LSDP), combine les concepts de programmation dynamique et d'apprentissage par renforcement. Il a ensuite été adapté pour la conception de stratégies d'échantillonnage adaptatives pour tout type de champ de Markov et tout type de coût d'observation. En pratique, l'algorithme LSDP permet une résolution approchée de problèmes d'échantillonnage de plus grande taille qu'avec la plupart des algorithmes classiques d'apprentissage par renforcement. Pour le deuxième point, nous avons d'abord modélisé la répartition spatiale d'une espèce adventice à l'aide des champs de Markov. Un modèle de coût d'échantillonnage d'une espèce adventice a également été proposé. Ces deux modèles ont ensuite été utilisés pour concevoir de nouvelles stratégies d'échantillonnage adaptatives d'une espèce. Une étude sur données réelles a démontré la supériorité des stratégies adaptatives sur des stratégies statiques, classiquement utilisées en échantillonnage adventice
This work is divided into two parts: (i) the theoretical study of the problem of adaptive sampling in Markov Random Fields (MRF) and (ii) the modeling of the problem of weed sampling in a crop field and the design of adaptive sampling strategies for this problem. For the first point, we first modeled the problem of finding an optimal sampling strategy as a finite horizon Markov Decision Process (MDP). Then, we proposed a generic algorithm for computing an approximate solution to any finite horizon MDP with known model. This algorithm, called Least-Squared Dynamic Programming (LSDP), combines the concepts of dynamic programming and reinforcement learning. It was then adapted to compute adaptive sampling strategies for any type of MRF distributions and observations costs. An experimental evaluation of this algorithm was performed on simulated problems. For the second point, we first modeled the weed spatial repartition in the MRF framework. Second, we have built a cost model adapted to the weed sampling problem. Finally, both models were used together to design adaptive sampling strategies with the LSDP algorithm. Based on real world data, these strategies were compared to a simple heuristic and to static sampling strategies classically used for weed sampling
APA, Harvard, Vancouver, ISO und andere Zitierweisen
5

Oudot, Steve. „Echantillonnage et maillage de surfaces avec garanties“. Palaiseau, Ecole polytechnique, 2005. http://www.theses.fr/2005EPXX0060.

Der volle Inhalt der Quelle
Annotation:
Dans cette thèse, nous introduisons le concept d'e-échantillon lâche, qui peut être vu comme une version faible de la notion d'e-échantillon. L'avantage majeur des e-échantillons lâches sur les e-échantillons classiques est qu'ils sont plus faciles à vérifier et à construire. Plus précisément, vérifier si un ensemble fini de points est un e-échantillon lâche revient à regarder si les rayons d'un nombre fini de boules sont suffisamment petits. Quand la surface S est lisse, nous montrons que les e-échantillons sont des e-échantillons lâches et réciproquement, à condition que e soit suffisamment petit. Il s'ensuit que les e-échantillons lâches offrent les mêmes garanties opologiques et géométriques que les e-échantillons. Nous étendons ensuite nos résultats au cas où la surface échantillonnée est non lisse en introduisant une nouvelle grandeur, appelée rayon Lipschitzien, qui joue un rôle similaire à lfs dans le cas lisse, mais qui s'avère être bien défini et positif sur une plus large classe d'objets. Plus précisément, il caractérise la classe des surfaces Lipschitziennes, qui inclut entre autres toutes les surfaces lisses par morceaux pour lesquelles la variation des normales aux abords des points singuliers n'est pas trop forte. Notre résultat principal est que, si S est une surface Lipschitzienne et E un ensemble fini de points de S tel que tout point de S est à distance de E au plus une fraction du rayon Lipschitzien de S, alors nous obtenons le même type de garanties que dans le cas lisse, à savoir : la triangulation de Delaunay de E restreinte à S est une variété isotope à S et à distance de Hausdorff O(e) de S, à condition que ses facettes ne soient pas trop aplaties. Nous étendons également ce résultat aux échantillons lâches. Enfin, nous donnons des bornes optimales sur la taille de ces échantillons. Afin de montrer l'intérêt pratique des échantillons lâches, nous présentons ensuite un algorithme très simple capable de construire des maillages certifiés de surfaces. Etant donné une surface S compacte, Lipschitzienne et sans bord, et un paramètre positif e, l'algorithme génère un e-échantillon lâche E de S de taille optimale, ainsi qu'un maillage triangulaire extrait de la triangulation de Delaunay de E. Grâce à nos résultats théoriques, nous pouvons garantir que ce maillage triangulaire est une bonne approximation de S, tant sur le plan topologique que géométrique, et ce sous des hypothèses raisonnables sur le paramètre d'entrée e. Un aspect remarquable de l'algorithme est que S n'a besoin d'être connue qu'à travers un oracle capable de détecter les points d'intersection de n'importe quel segment avec la surface. Ceci rend l'algorithme assez générique pour être utilisé dans de nombreux contextes pratiques et sur une large gamme de surfaces. Nous illustrons cette généricité à travers une série d'applications : maillage de surfaces implicites, remaillage de polyèdres, ondage de surfaces inconnues, maillage de volumes.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
6

Yan, Alix. „Restauration d'images corrigées par optique adaptative pour l'observation astronomique et de satellites : approche marginale par échantillonnage“. Electronic Thesis or Diss., Université Paris sciences et lettres, 2023. http://www.theses.fr/2023UPSLO012.

Der volle Inhalt der Quelle
Annotation:
La restauration d’images corrigées par optique adaptative est particulièrement difficile, du fait de la méconnaissance de la réponse impulsionnelle du système optique (PSF pour point spread function) en plus des difficultés usuelles. Une approche efficace est de marginaliser l’objet en dehors du problème et d’estimer la PSF et les hyper-paramètres (liés à l’objet et au bruit) seuls avant la déconvolution. Des travaux récents ont appliqué cette déconvolution marginale, combinée à un modèle paramétrique de PSF, à des images astronomiques et de satellites. Cette thèse vise à proposer une extension de cette méthode. En particulier, nous utilisons un algorithme Monte-Carlo par chaînes de Markov (MCMC), afin d’inclure des incertitudes sur les paramètres et d'étudier leur corrélation a posteriori. Nous présentons des résultats détaillés obtenus sur des images astronomiques, simulées et expérimentales. Nous présentons également des premiers éléments sur l’ajout d’une contrainte de support sur l’objet
Adaptive-optics-corrected image restoration is particularly difficult, as it suffers from the poor knowledge on the point spread function (PSF). One efficient approach is to marginalize the object out of the problem, and to estimate the PSF and (object and noise) hyper-parameters only before the deconvolution. Recent works have applied this marginal deconvolution, combined to a parametric model for the PSF, to astronomical and satellite images. This thesis aims at extending this previous method, using Markov chain Monte Carlo (MCMC) algorithms. This will enable us to derive uncertainties on the estimates, as well as to study posterior correlation between the parameters. We present detailled results on simulated and experimental, astronomical and satellite data. We also provide elements on the impact of a support constraint on the object
APA, Harvard, Vancouver, ISO und andere Zitierweisen
7

Kourda, Ferid. „Simulation d'alimentation à découpage sur micro-ordinateur“. Lyon, INSA, 1989. http://www.theses.fr/1989ISAL0031.

Der volle Inhalt der Quelle
Annotation:
En vue du développement industriel d'alimentation continu- continu de 3KW. Nous avons réalisé une maquette avec une structure en demi-pont asymétrique. Pour minimiser les contraintes exercées sur les composants et prévoir les fonctionnements transitoires, nous avons développé un logiciel de simulation spécifique implanté sur micro ordinateur. Nous avons utilisé la discrétisation des équations d'état continu et le calcul de la matrice de transition nous a conduit à porter une attention particulière à la période d'échantillonnage. Sa détermination a pu se faire par le calcul de la valeur propre dominante Puis nous avons comparé les résultats de cette simulation ; incluant la boucle de régulation; avec ceux résultant d'un algorithme obtenu par une autre approche mathématique du problème faisant intervenir la notion nouvelle de "circuit relatif moyen". Nous avons pu observer une très bonne concordance avec les oscillogrammes relevés sur la maquette expérimentale. Cette simulation nous a permis enfin d'élaborer rapidement un prototype industrialisable.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
8

Burlion, Laurent. „Contribution à l'analyse et à la commande de systèmes non linéaires à commande échantillonnée“. Phd thesis, Université Paris Sud - Paris XI, 2007. http://tel.archives-ouvertes.fr/tel-00461750.

Der volle Inhalt der Quelle
Annotation:
A la frontière des systèmes non linéaires continus et discrets, la classe des systèmes non linéaires à commande échantillonnée est une classe de systèmes à part entière qui a stimulé et stimule toujours de nombreuses recherches. Le sujet est d'autant plus important qu'il a été trop souvent sous estimé au profit de la recherche sur les commandes continues alors que paradoxalement les commandes sont principalement implémentées numériquement sur les applications industrielles actuelles. S'appuyant sur les dernières recherches du domaine, cette thèse se veut à la fois une contribution à l'étude et à la synthèse de lois de commande échantillonnées pour certaines classes de systèmes non linéaires.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
9

Claisse, Alexandra. „Modèle de reconstruction d'une surface échantillonnée par une méthode de ligne de niveau, et applications“. Paris 6, 2009. https://tel.archives-ouvertes.fr/tel-00443640.

Der volle Inhalt der Quelle
Annotation:
La reconstruction de surface, à partir de données échantillonnées, est un thème de recherche important et très actif depuis quelques années. L'enjeu est de pouvoir générer toute sorte de géométries et de topologies. Le but de ce travail est de trouver une surface régulière Gamma (typiquement de classe C2), passant au plus près de tous les points d'un échantillon V donné, c'est-à-dire telle que la distance euclidienne d(x, Gamma) soit minimale pour tout x dans V. Pour cela, on formule le problème à l'aide d'une équation aux dérivées partielles qui va caractériser l'évolution d'une surface Gamma(t). Cette EDP est composée d'un terme d'attraction, qui permet à Gamma(t) d'avancer jusqu'à V, et d'un terme de tension de surface, dont le rôle est de préserver la régularité de Gamma(t) au cours du temps. On montre d'abord que le problème est bien posé, c'est-à-dire que sa solution existe et qu'elle est unique. Cette EDP est ensuite résolue numériquement à l'aide de la méthode des lignes de niveau, et grâce à des schémas numériques spécifiques (avec approximation des dérivées d'ordre un et deux en espace en chaque noeud du maillage), sur des triangulations adaptées et anisotropes (pour améliorer la précision du résultat). D'un point de vue analyse, on montre que ces schémas sont consistants et stables en norme L2. Des exemples d'applications sont présentés pour illustrer l'efficacité de notre approche.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
10

Claisse, Alexandra. „Modèle de reconstruction d'une surface échantillonnée par un méthode de ligne de niveau, et applications“. Phd thesis, Université Pierre et Marie Curie - Paris VI, 2009. http://tel.archives-ouvertes.fr/tel-00443640.

Der volle Inhalt der Quelle
Annotation:
La reconstruction de surface, à partir de données échantillonnées, est un thème de recherche important et très actif depuis quelques années. L'enjeu est de pouvoir générer toute sorte de géométries et de topologies. Le but de ce travail est de trouver une surface régulière Gamma (typiquement de classe C2), passant au plus près de tous les points d'un échantillon V donné, c'est-à-dire telle que la distance euclidienne d(x, Gamma) soit minimale pour tout x dans V. Pour cela, on formule le problème à l'aide d'une équation aux dérivées partielles qui va caractériser l'évolution d'une surface Gamma(t). Cette EDP est composée d'un terme d'attraction, qui permet à Gamma(t) d'avancer jusqu'à V, et d'un terme de tension de surface, dont le rôle est de préserver la régularité de Gamma(t) au cours du temps. On montre d'abord que le problème est bien posé, c'est-à-dire que sa solution existe et qu'elle est unique. Cette EDP est ensuite résolue numériquement à l'aide de la méthode des lignes de niveau, et grâce à des schémas numériques spécifiques (avec approximation des dérivées d'ordre un et deux en espace en chaque noeud du maillage), sur des triangulations adaptées et anisotropes (pour améliorer la précision du résultat). D'un point de vue analyse, on montre que ces schémas sont consistants et stables en norme L2. Des exemples d'applications sont présentés pour illustrer l'efficacité de notre approche.
APA, Harvard, Vancouver, ISO und andere Zitierweisen

Bücher zum Thema "Échantillonage adaptatif"

1

Mark, Chang, Hrsg. Adaptive design methods in clinical trials. 2. Aufl. Boca Raton: Taylor & Francis, 2012.

Den vollen Inhalt der Quelle finden
APA, Harvard, Vancouver, ISO und andere Zitierweisen
2

Mark, Chang, Hrsg. Adaptive design methods in clinical trails. Boca Raton, FL: Chapman & Hall/CRC, 2007.

Den vollen Inhalt der Quelle finden
APA, Harvard, Vancouver, ISO und andere Zitierweisen
3

Chang, Mark. Adaptive design theory and implementation using SAS and R. Boca Raton, FL: CRC Press, 2007.

Den vollen Inhalt der Quelle finden
APA, Harvard, Vancouver, ISO und andere Zitierweisen
4

Chang, Mark. Introductory adaptive trial designs: A practical guide with R. Boca Raton, Fla: CRC Press, 2015.

Den vollen Inhalt der Quelle finden
APA, Harvard, Vancouver, ISO und andere Zitierweisen
5

Network and Adaptive Sampling Techniques. Taylor & Francis Group, 2014.

Den vollen Inhalt der Quelle finden
APA, Harvard, Vancouver, ISO und andere Zitierweisen
6

Adaptive design theory and implementation using SAS and R. Boca Raton: CRC Press, 2014.

Den vollen Inhalt der Quelle finden
APA, Harvard, Vancouver, ISO und andere Zitierweisen
7

Chang, Mark. Adaptive Design Theory and Implementation Using SAS and R. Taylor & Francis Group, 2014.

Den vollen Inhalt der Quelle finden
APA, Harvard, Vancouver, ISO und andere Zitierweisen
8

Chang, Mark. Adaptive Design Theory and Implementation Using SAS and R. Taylor & Francis Group, 2016.

Den vollen Inhalt der Quelle finden
APA, Harvard, Vancouver, ISO und andere Zitierweisen
9

Adaptive design theory and implementation using SAS and R. Boca Raton: Taylor & Francis, 2008.

Den vollen Inhalt der Quelle finden
APA, Harvard, Vancouver, ISO und andere Zitierweisen
10

Introductory Adaptive Trial Designs: A Practical Guide with R. Taylor & Francis Group, 2015.

Den vollen Inhalt der Quelle finden
APA, Harvard, Vancouver, ISO und andere Zitierweisen
Wir bieten Rabatte auf alle Premium-Pläne für Autoren, deren Werke in thematische Literatursammlungen aufgenommen wurden. Kontaktieren Sie uns, um einen einzigartigen Promo-Code zu erhalten!

Zur Bibliographie