Academic literature on the topic 'Méthodes Agnostiques aux Modèles'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the lists of relevant articles, books, theses, conference reports, and other scholarly sources on the topic 'Méthodes Agnostiques aux Modèles.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Journal articles on the topic "Méthodes Agnostiques aux Modèles":

1

Monfort, Alain. "Quelques développements récents des méthodes macroéconométriques." L'Actualité économique 68, no. 1-2 (March 10, 2009): 305–24. http://dx.doi.org/10.7202/602069ar.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
RÉSUMÉAu cours des dix ou quinze dernières années, les méthodes macroéconomiques ont profondément évolué. Ces développements se sont effectués dans des directions très variées, si bien qu’à l’heure actuelle le paysage est beaucoup plus complexe qu’il ne l’était au milieu des années 70. Le but de cet article est de fournir aux non-spécialistes de l’économétrie une description rapide de ce nouveau paysage. De façon à obtenir une image aussi fidèle que possible il nous a semblé qu’il fallait aborder cinq types de modèles : les modèles VAR, les modèles non stationnaires, les modèles ARCH, les modèles de moments généralisés et les modèles de déséquilibre.
2

Battista, Katelyn, Liqun Diao, Karen A. Patte, Joel A. Dubin, and Scott T. Leatherdale. "Utilisation des arbres décisionnels dans la recherche en surveillance de la santé de la population : application aux données d’enquête sur la santé mentale des jeunes de l’étude COMPASS." Promotion de la santé et prévention des maladies chroniques au Canada 43, no. 2 (February 2023): 78–92. http://dx.doi.org/10.24095/hpcdp.43.2.03f.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Introduction Dans la recherche en surveillance de la santé de la population, les données d’enquête sont couramment analysées à l’aide de méthodes de régression. Or ces méthodes disposent d’une capacité limitée à analyser les relations complexes. À l’opposé, les modèles d’arbres décisionnels sont parfaitement adaptés pour segmenter les populations et étudier les interactions complexes entre facteurs, et leur utilisation dans la recherche en santé est en pleine croissance. Cet article fournit un aperçu de la méthodologie des arbres décisionnels et de leur application aux données d’enquête sur la santé mentale des jeunes. Methods La performance de deux techniques courantes de construction d’arbres décisionnels, soit l’arbre de classification et de régression (CART) et l’arbre d’inférence conditionnelle (CTREE), est comparée aux modèles classiques de régression linéaire et logistique par le biais d’une application aux résultats en santé mentale des jeunes de l’étude COMPASS. Les données ont été recueillies auprès de 74 501 élèves de 136 écoles au Canada. L’anxiété, la dépression et le bien‑être psychologique ont été mesurés, de même que 23 variables sociodémographiques et facteurs de prédiction des comportements liés à la santé. La performance du modèle a été évaluée au moyen de mesures de prédiction de l’exactitude, de la parcimonie et de l’importance relative des variables. Results Les modèles d’arbres décisionnels et les modèles de régression ont systématiquement mis en évidence les mêmes ensembles de facteurs de prédiction les plus importants pour chaque résultat, ce qui indique un niveau général de concordance entre méthodes. Trois modèles ont présenté une exactitude prédictive plus faible, mais se caractérisent par une plus grande parcimonie et accordent une importance relative plus élevée aux principaux facteurs de différenciation. Conclusion Les arbres décisionnels permettent de cerner les sous-groupes à risque élevé qu’il convient de cibler dans le cadre des efforts de prévention et d’intervention. Ils constituent donc un outil utile pour répondre aux questions de recherche auxquelles les méthodes de régression classiques ne peuvent pas répondre.
3

Test, Mary Ann. "Modèles de traitement dans la communauté pour adultes ayant des maladies mentales graves et persistantes." Dossier : Le suivi communautaire 23, no. 2 (September 11, 2007): 119–47. http://dx.doi.org/10.7202/032456ar.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
RÉSUMÉ L'auteure identifie trois modèles de soins et de suivi des personnes aux prises avec des troubles mentaux graves dans la communauté. Il s'agit du modèle PACT (Program ofAssertive Community Treatment) qu'elle a développé historiquement avec ses collègues de Madison (Wisconsin), des clubs psychosociaux et des nouveaux programmes gérés par les usagers. Elle propose une description des principales caractéristiques de ces modèles et des résultats de la recherche quant à leur efficacité pour répondre aux besoins des personnes suivies. Enfin, elle en dégage les implications pour la formation en travail social, ces modèles partageant des méthodes et des valeurs communes avec cette discipline.
4

Jellad, Asma. "Identification des propriétés élastoplastiques des films minces de CrN en utilisant la technique de nanoindentation et la modélisation par éléments finis (FEM)." Matériaux & Techniques 111, no. 4 (2023): 403. http://dx.doi.org/10.1051/mattech/2023029.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Dans ce travail, les propriétés élastoplastiques intrinsèques des films minces telles que le module d’Young E, la limite d’élasticité σy et le coefficient d’écrouissage n ont été identifiées à partir des méthodes numériques qui se basent sur des analyses dimensionnelles, des calculs par éléments finis et la résolution des algorithmes d’analyse inverse. Quatre méthodes de la littérature ont été sélectionnées pour identifier les propriétés des films minces en considérant les effets liés au substrat. De plus, l’efficacité de ces modèles numériques a été discutée à l’aide d’une vérification numérique en comparant les résultats d’identification aux propriétés introduites dans les simulations. Les propriétés mécaniques des films minces de CrN ont été enfin identifiées à l’aide de ces modèles. Les résultats d’identification ont été comparés aux propriétés mécaniques des films CrN reportées de la littérature et le bon accord montre que trois de ces quatre méthodes numériques peuvent être appliquées dans le cas des films minces.
5

Regniers, Olivier, Lionel Bombrun, and Christian Germain. "Modélisation de texture basée sur les ondelettes pour la détection de parcelles viticoles à partir d'images Pléiades panchromatiques." Revue Française de Photogrammétrie et de Télédétection, no. 208 (September 8, 2014): 117–22. http://dx.doi.org/10.52638/rfpt.2014.122.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Cette étude évalue le potentiel des modèles de texture SIRV sur ondelettes pour la détection de parcelles viticoles dans les images à très haute résolution de type PLEIADES et compare les performances de ces modèles avec des méthodes de référence telles que les matrices de co-occurrence de niveaux de gris et une approche de segmentation par filtre de Gabor. Les résultats obtenus montrent que les modèles SIRV permettent à la fois une bonne détection des parcelles tout en limitant le taux de faux positifs par rapport aux autres approches. Ces modèles font également preuve d'une plus grande robustesse à des effets d'atténuation de texture liés au faible rapport entre distance inter-rang et résolution spatiale propre aux appellations viticoles étudiées.
6

Bultez, Alain. "Econométrie de la compétitivité: modèles et contre-exemples." Recherche et Applications en Marketing (French Edition) 12, no. 1 (March 1997): 21–44. http://dx.doi.org/10.1177/076737019701200102.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les premières applications des méthodes statistiques en Marketing ont porté sur les préferences exprimées et les choix faits par les consommateurs. Ainsi, durant les années soixante, s'est manifesté un engouement pour les processus stochastiques (markoviens) formalisant l'expérience acquise à l'usage des produits (apprentissage, familiarisation) et la fidélité aux marques (ou aux points de vente/service). Les deux dernières décennies ont, elles, été marquées par la popularité croissante des méthodes économétriques. Celles-ci se sont révélées particulièrement utiles dans l'étude des situations de concurrence oligopolistique prévalant sur la plupart des marchés. Estimant qu'on peut faire progresser l'analyse de la compétitivité marketing en s'inspirant de ces deux traditions complémentaires, j'en dérive une classe de modèles qui les concilie. Mon premier article (Bultez, 1996) posait les jalons de cette œuvre de synthèse: j'y défendais une spécification simple, mais purement descriptive, de la dynamique sous-tendant l'évolution des positions concurrentielles sur nombre de marchés: le modèle versatilité-attraction. Ce second article la généralise en y intégrant l'effet des décisions marketing prises par les concurrents qui s'affrontent. J'en discute, illustre et critique diverses variantes … et dégénérescences.
7

Mandrillon, Marie-Hélène. "Les Voies du Politique en URSS : L'Exemple de L'Écologie." Annales. Histoire, Sciences Sociales 46, no. 6 (December 1991): 1375–88. http://dx.doi.org/10.3406/ahess.1991.279014.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Face aux analyses qui ont longtemps conclu à l'irréversibilité du système communiste en URSS un premier clivage est apparu sur l'origine des forces qui présidaient aux réformes politiques. L'analyse des intentions du nouveau pouvoir dessinait une révolution par en haut tandis que celle de la société montrait la constitution et la poussée d'un mouvement social par en bas. Sans doute, les discordances tenaient-elles aux objets étudiés et aux méthodes mises en oeuvre et ne permettaient pas d'y voir l'ébauche de deux modèles explicatifs incompatibles.
8

Ado, Issa, and Adel Boughrara. "Modélisations prospective et rétrospective : comparaison et applications." Économie appliquée 49, no. 4 (1996): 61–91. http://dx.doi.org/10.3406/ecoap.1996.1616.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Il est désirable de savoir, parmi un ensemble de modèles alternatifs, lequel d’entre eux décrit de manière plus adéquate les données. Le développement de la notion des anticipations rationnelles a profondément bouleversé la science économique théorique et appliquée. Ainsi, ces dernières années sont caractérisées par des débats fort enrichissants touchant aux fondements des méthodes économétriques. Dans cet article, nous allons présenter, appliquer et comparer deux méthodes majeures, celle du général au spécifique de Hendry-Sargan et celle des anticipations rationnelles de Hansen-Sargent.
9

Temple, Ludovic, Ariane Gaunand, Gilles Trouche, and Eric Vall. "Évaluer les impacts des recherches en agriculture sur la société et les écosystèmes : outils, méthodes, études de cas." Cahiers Agricultures 27, no. 3 (May 2018): 34002. http://dx.doi.org/10.1051/cagri/2018022.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Confrontés aux évolutions des enjeux et modèles de développement touchant les secteurs de l’agriculture et de l’alimentation, les organismes de recherche interrogent les méthodes d’évaluation des impacts liées aux activités de recherche. En effet les cadres méthodologiques conventionnels utilisés depuis les années 1950 ne répondent plus aux attentes sociétales et aux réalités de l’activité de recherche dans ce domaine. Le numéro thématique des Cahiers Agricultures « Évaluer les impacts des recherches en agriculture sur la société : outils, méthodes, études de cas » présente les nouvelles approches méthodologiques proposées ces dernières années par l’INRA, le CIRAD et le CGIAR. Ces méthodes utilisent une démarche commune qui met l’accent sur les dimensions systémiques des processus d’innovation, la dimension multi-niveaux des impacts, la temporalité longue. Elles diffèrent sur certains points, comme par exemple la participation des parties prenantes dans l’évaluation des impacts. Le test empirique de ces démarches dans différentes études de cas structure une partie du numéro thématique dans les pays en développement. Il est enrichi par des analyses transversales aux études de cas ou sur des situations portées par d’autres orientations méthodologiques et dans d’autres contextes géographiques. Certaines contributions identifient les limites des différentes méthodes pour de futurs fronts de recherche. Cet article de synthèse expose des connaissances sur la compréhension des impacts de l’activité de recherche. Il invite à reconsidérer le rôle de la recherche dans les processus d’innovation.
10

Ouarda, T. B. M. J., M. Lang, B. Bobée, J. Bernier, and P. Bois. "Synthèse de modèles régionaux d'estimation de crue utilisée en France et au Québec." Revue des sciences de l'eau 12, no. 1 (April 12, 2005): 155–82. http://dx.doi.org/10.7202/705347ar.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
De nombreuses méthodes régionales ont été développées pour améliorer l'estimation de la distribution des débits de crues en des sites où l'on dispose de peu d'information ou même d'aucune information. Cet article présente une synthèse de modèles hydrologiques utilisés en France et au Québec (Canada), à l'occasion d'un séminaire relatif aux " méthodes d'estimation régionale en hydrologie " tenu à Lyon en mai 1997. Les modèles français sont fortement liés à une technique d'extrapolation de la distribution des crues, la méthode du Gradex, qui repose sur l'exploitation probabiliste conjointe des séries hydrométriques et pluviométriques. Ceci explique les deux principaux volets d'études régionales pratiquées en France : les travaux liés à la régionalisation des pluies et ceux liés à la régionalisation des débits. Les modèles québecois comprennent généralement deux étapes : la définition et la détermination de régions hydrologiquement homogènes, puis l'estimation régionale, par le transfert à l'intérieur d'une même région de l'information des sites jaugés à un site non-jaugé ou partiellement jaugé pour lequel on ne dispose pas d'information suffisante. Après avoir donné un aperçu des méthodes pratiquées dans les deux pays, une discussion dégage les caractéristiques principales et les complémentarités des différentes approches et met en évidence l'intérêt de développer une collaboration plus étroite pour mieux tenir compte des particularités et des complémentarités des méthodes développées de part et d'autre. Une des pistes évoquées consiste à combiner l'information régionale pluviométrique (approche française) et hydrométrique (approche québécoise).

Dissertations / Theses on the topic "Méthodes Agnostiques aux Modèles":

1

Danesh, Alaghehband Tina Sadat. "Vers une conception robuste en ingénierie des procédés. Utilisation de modèles agnostiques de l'interprétabilité en apprentissage automatique." Electronic Thesis or Diss., Toulouse, INPT, 2023. http://www.theses.fr/2023INPT0138.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La conception de processus robustes revêt une importance capitale dans divers secteurs, tels que le génie chimique et le génie des procédés. La nature de la robustesse consiste à s'assurer qu'un processus peut constamment produire les résultats souhaités pour les décideurs, même lorsqu'ils sont confrontés à une variabilité et à une incertitude intrinsèques. Un processus conçu de manière robuste améliore non seulement la qualité et la fiabilité des produits, mais réduit également de manière significative le risque de défaillances coûteuses, de temps d'arrêt et de rappels de produits. Il améliore l'efficacité et la durabilité en minimisant les déviations et les défaillances du processus. Il existe différentes méthodes pour améliorer la robustesse du système, telles que la conception d'expériences, l'optimisation robuste et la méthodologie de la surface de réponse. Parmi les méthodes de conception robuste, l'analyse de sensibilité pourrait être appliquée comme technique de soutien pour mieux comprendre comment les modifications des paramètres d'entrée affectent les performances et la robustesse. En raison du développement rapide en science de l’ingénieure, les modèles mécanistiques ne captant pas certaines parties des systèmes complexe, peuvent ne pas être l'option la plus appropriée pour d'analyse de sensibilité. Ceci nous amène à envisager l'application de modèles d'apprentissage automatique et la combiner avec l’analyse de sensibilité. Par ailleurs, la question de l'interprétabilité des modèles d'apprentissage automatique a gagné en importance, il est de plus en plus nécessaire de comprendre comment ces modèles parviennent à leurs prédictions ou à leurs décisions et comment les différents paramètres sont liés. Étant donné que leurs performances dépassent constamment celles des modèles mécanistiques, fournir des explications, des justifications et des informations sur les prédictions des modèles de ML permettent non seulement de renforcer leur fiabilité et leur équité, mais aussi de donner aux ingénieurs les moyens de prendre des décisions en connaissance de cause, d'identifier les biais, de détecter les erreurs et d'améliorer les performances globales et la fiabilité des systèmes. Diverses méthodes sont disponibles pour traiter les différents aspects de l'interprétabilité, ces dernières reposent sur des approches spécifiques à un modèle et sur des méthodes agnostiques aux modèles.Dans cette thèse, notre objectif est d'améliorer l'interprétabilité de diverses méthodes de ML tout en maintenant un équilibre entre la précision dans la prédiction et l'interprétabilité afin de garantir aux décideurs que les modèles peuvent être considérés comme robustes. Simultanément, nous voulons démontrer que les décideurs peuvent faire confiance aux prédictions fournies par les modèles ML. Les outils d’interprétabilité ont été testés pour différents scénarios d'application, y compris les modèles basés sur des équations, les modèles hybrides et les modèles basés sur des données. Pour atteindre cet objectif, nous avons appliqué à diverses applications plusieurs méthodes agnostiques aux modèles, telles que partial dependence plots, individual conditional expectations, accumulated local effects, etc
Robust process design holds paramount importance in various industries, such as process and chemical engineering. The nature of robustness lies in ensuring that a process can consistently deliver desired outcomes for decision-makers and/or stakeholders, even when faced with intrinsic variability and uncertainty. A robustly designed process not only enhances product quality and reliability but also significantly reduces the risk of costly failures, downtime, and product recalls. It enhances efficiency and sustainability by minimizing process deviations and failures. There are different methods to approach the robustness of a complex system, such as the design of experiments, robust optimization, and response surface methodology. Among the robust design methods, sensitivity analysis could be applied as a supportive technique to gain insights into how changes in input parameters affect performance and robustness. Due to the rapid development and advancement of engineering science, the use of physical models for sensitivity analysis presents several challenges, such as unsatisfied assumptions and computation time. These problems lead us to consider applying machine learning (ML) models to complex processes. Although, the issue of interpretability in ML has gained increasing importance, there is a growing need to understand how these models arrive at their predictions or decisions and how different parameters are related. As their performance consistently surpasses that of other models, such as knowledge-based models, the provision of explanations, justifications, and insights into the workings of ML models not only enhances their trustworthiness and fairness but also empowers stakeholders to make informed decisions, identify biases, detect errors, and improve the overall performance and reliability of the process. Various methods are available to address interpretability, including model-specific and model-agnostic methods. In this thesis, our objective is to enhance the interpretability of various ML methods while maintaining a balance between accuracy and interpretability to ensure decision-makers or stakeholders that our model or process could be considered robust. Simultaneously, we aim to demonstrate that users can trust ML model predictions guaranteed by model-agnostic techniques, which work across various scenarios, including equation-based, hybrid, and data-driven models. To achieve this goal, we applied several model-agnostic methods, such as partial dependence plots, individual conditional expectations, accumulated local effects, etc., to diverse applications
2

Grazian, Clara. "Contributions aux méthodes bayésiennes approchées pour modèles complexes." Thesis, Paris Sciences et Lettres (ComUE), 2016. http://www.theses.fr/2016PSLED001.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Récemment, la grande complexité des applications modernes, par exemple dans la génétique, l’informatique, la finance, les sciences du climat, etc. a conduit à la proposition des nouveaux modèles qui peuvent décrire la réalité. Dans ces cas,méthodes MCMC classiques ne parviennent pas à rapprocher la distribution a posteriori, parce qu’ils sont trop lents pour étudier le space complet du paramètre. Nouveaux algorithmes ont été proposés pour gérer ces situations, où la fonction de vraisemblance est indisponible. Nous allons étudier nombreuses caractéristiques des modèles complexes: comment éliminer les paramètres de nuisance de l’analyse et faire inférence sur les quantités d’intérêt,dans un cadre bayésienne et non bayésienne et comment construire une distribution a priori de référence
Recently, the great complexity of modern applications, for instance in genetics,computer science, finance, climatic science etc., has led to the proposal of newmodels which may realistically describe the reality. In these cases, classical MCMCmethods fail to approximate the posterior distribution, because they are too slow toinvestigate the full parameter space. New algorithms have been proposed to handlethese situations, where the likelihood function is unavailable. We will investigatemany features of complex models: how to eliminate the nuisance parameters fromthe analysis and make inference on key quantities of interest, both in a Bayesianand not Bayesian setting, and how to build a reference prior
3

Tarhini, Ali. "Analyse numérique des méthodes quasi-Monte Carlo appliquées aux modèles d'agglomération." Chambéry, 2008. http://www.theses.fr/2008CHAMS015.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les méthodes de Monte Carlo (MC) sont des méthodes statistiques basées sur l'utilisation répétée de nombres aléatoires. Les méthodes quasi-Monte Carlo (QMC) sont des versions déterministes des méthodes de Monte Carlo. Les suites aléatoires sont remplacées par des suites à discrépance faible, qui ont une meilleure répartition uniforme dans le cube unite s- dimensionnel. Nous utilisons une classe particulière de suites à discrépance faible : les suites-(t,s). Dans ce travail, nous developpons et analysons des méthodes particulaires Monte Carlo et quasi-Monte Carlo pour les phénomènes d'agglomeration. Nous nous intéressons en particulier à la simulation numérique de l'équation de coagulation discrète (équation de Smoluchowski), de l'équation de coagulation continue, de l'équation de coagulation- fragmentation continue et de l'équation générale de la dynamique (EGD) des aérosols. Pour toutes ces méthodes particulaires, on écrit l'équation vérifiée par la distribution de masse et on approche celle-ci par une somme de n mesures de Dirac ; les mesures sont pondérées dans le cas de la simulation de l'EGD. Le schema en temps est un schema d'Euler explicite. Pour la simulation de la coagulation et de la fragmentation, l'évolution des masses des particules est déterminée par des tirages de nombres aléatoires (méthode MC) ou par des quadratures quasi-Monte Carlo (méthode QMC). Pour assurer la convergence de la méthode QMC, on ordonne les particules par taille croissante à chaque pas de temps. Dans le cas de la résolution de l'EGD, on utilise une méthode à pas fractionnaire : la simulation de la coagulation se fait comme précédemment, les autres phénomènes (condensation. évaporation, déposition) sont pris en compte par une méthode particulaire déterministe de résolution d'une équation aux dérivées partielles hyperbolique. Nous démontrons la convergence du schema particulaire QMC de résolution numérique de l'équation de coagulation et de coagulation-fragmentation, quand le nombre n des particules tend vers l'infini. Tous les essais numériques montrent que les solutions calculées par les nouveaux algorithmes QMC convergent vers les solutions exactes et fournissent de meilleurs résultats que ceux obtenus par les méthodes de Monte Carlo correspondantes
Monte Carlo (MC) methods are probabilistic methods based on the use of random numbers in repeated experiments. Quasi-Monte Carlo (QMC) methods are deterministic versions of Monte Carlo methods. Random sequences are replaced by low discrepancy sequences. These sequences ha ve a better uniform repartition in the s-dimensional unit cube. We use a special class of low discrepany sequences called (t,s)-sequences. In this work, we develop and analyze Monte Carlo and quasi-Monte Carlo particle methods for agglomeration phenomena. We are interested, in particular, in the numerical simulation of the discrete coagulation equations (the Smoluchowski equation), the continuous coagulation equation, the continuous coagulation-fragmentation equation and the general dynamics equation (GDE) for aerosols. In all these particle methods, we write the equation verified by the mass distribution density and we approach this density by a sum of n Dirac measures ; these measures are weighted when simulating the GDE equation. We use an explicit Euler disretiza tion scheme in time. For the simulation of coagulation and coagulation-fragmentation, the numerical particles evolves by using random numbers (for MC simulations) or by quasi-Monte Carlo quadratures. To insure the convergence of the numerical scheme, we reorder the numerical particles by their increasing mass at each time step. In the case of the GDE equation, we use a fractional step iteration scheme : coagulation is simulated as previously, other phenomena (like condensation, evaporation and deposition) are integrated by using a deterministic particle method for solving hyperbolic partial differential equation. We prove the convergence of the QMC numerical scheme in the case of the coagulation equation and the coagulation-fragmentation equation, when the number n of numerical particles goes to infinity. All our numerical tests show that the numerical solutions calculated by QMC algorithms converges to the exact solutions and gives better results than those obtained by the corresponding Monte Carlo strategies
4

Rakotomarolahy, Patrick. "Méthodes non paramétriques : estimation, analyse et applications aux cycles économiques." Paris 1, 2011. http://www.theses.fr/2011PA010045.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Cette thèse se concentre sur l'étude des propriétés de la fonction régression par des méthodes non paramétriques pour des processus dépendants et l'application de ces méthodes dans l'analyse des cycles économiques. On résume ci-dessous les résultats théoriques et les résultats empiriques obtenus dans ce cadre. Le premier résultat théorique concerne la biais, la variance, l'erreur quatratique et la normalité asymptotique de deux estimateurs non-paramétriques: plus proche voisin et fonction radiale de base. L'autre résultat théorique était l'extension des tests d'enveloppements dans le cas de processus dépendant permettant de comparer différentes méthodes paramétriques et non paramétriques. On a établi la normalité asymptotique des statistiques associées à ces tests. Les travaux empiriques ont été de proposer ces méthodes non paramétriques dans la prévision des activités économiques réelles à partir des indicateurs économiques et des variables financières, pour palier quelques hypothèses jugeant très fortes dans l'approche paramétrique. On a trouvé l'intérêt des méthodes non paramétriques dans la prévision de produit intérieur brut (PIB) de la zone euro. On a revu le rôle ds variables financières dans le choix de modèles et dans la sélection des variables.
5

Castric, Sébastien. "Méthodes de recalage de modèles et application aux émissions des moteurs diesel." Compiègne, 2007. http://www.theses.fr/2007COMP1696.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Depuis plusieurs décennies, les véhicules européens sont soumis à des normes concernant leurs émissions polluantes. Pour faire face à ces contraintes de plus en plus importantes, les constructeurs automobiles ont fait appel à des solutions technologiques complexes notamment dans le cas des véhicules diesel. Cette situation a par ailleurs entraîné une complexification de la mise au point des moteurs puisque ces derniers possèdent un nombre croissant de paramètres de réglage. Notre travail de recherche s’est déroulé dans l’entreprise Renault SAS. Il a pour objectif de présenter des méthodes de recalage de modèles et une application de ses méthodes aux modèles d’émissions polluantes de moteur diesel. Depuis plusieurs années déjà, Renault utilise les techniques de plans d’expériences, de modélisation et d’optimisation pour résoudre le problème de la mise au point des moteurs diesel pour la dépollution. Si l’approche fonctionne bien, elle comporte néanmoins un défaut. Le processus de mise au point des moteurs diesel est itératif, et chaque itération apporte son lot de modifications matérielles. Dans ce cas, les modèles servant à prédire les émissions du moteur, qui sont des LOLIMOT, ne sont plus valables. Sachant que nous ne pouvons pas relancer le processus de modélisation pour des raisons de coup et de délais, une question se pose alors : « Comment recaler les modèles d’émissions après un changement de définition technique du moteur en faisant le moins d’essais possible ? ». La contribution du travail de recherche se divise en deux approches. Une première voie utilise la théorie bayesienne. En se servant du modèle avant le changement comme d’un a priori ainsi que de nouveaux essais nous avons créé un algorithme permettant de recaler les modèles LOLIMOT. Nous proposons par ailleurs une méthode dérivée de la première intégrant en plus la connaissance que peuvent avoir les metteurs au point de leur moteur. Nous avons testé notre méthode en simulation puis sur des essais effectués sur un moteur 2 L diesel ayant subi différents changements de définition technique. Dans un deuxième temps, nous avons considéré que même si la théorie bayesienne permet d’intégrer certaines connaissances dans le recalage de modèles, elle ne permet pas d’utiliser directement les caractéristiques même de ce changement. Nous avons alors décidé de créer un modèle intégrant des paramètres physiques comme, par exemple, le nombre de trous des injecteurs. Nous avons alors, développé un modèle de combustion diesel. Ce dernier permet de simuler l’évolution des grandeurs thermodynamiques dans la chambre de combustion même dans le cas de la multi injection. Nous avons ensuite créé des modèles de polluants utilisant ces grandeurs comme entrées. Nous avons testé notre modèle sur de la prédiction de pression cylindre et de polluants sur un moteur 2L diesel
Since some decades, European vehicles are subjected to normative laws about pollutant emissions. To face these constraints, car manufacturers have used more and more complex technologies especially for diesel engine cars. This situation has led to a complexification of engine tuning since the numbers of setting parameters has increased too. The present research work was made for the car manufacturer Renault SAS. It aims at proposing methods that allow readjusting models and applications over pollutant models of diesel engine. Renault decided to use techniques of design of experiments, modelling and optimization to solve the problem of diesel engine tuning for emissions. Even if this approach gave good results, it has some drawbacks. The tuning process is composed of loops. Each loop involves hardware changes in the engine. In this case, the model representing the engine’s behaviour, which is a LOLIMOT model, is not valid anymore. Considering that it is not possible to completely rebuild a model, a question appears: “How is it possible to readjust the model after an hardware change by doing as few tests as possible?” This PhD proposes some ways to solve this problem. The first one consists in using the bayesian theory. By using the initial model as an a priori, we created an algorithm permitting to readjust LOLIMOT models. In addition, we proposed a method derived from the first one, and, which aims at using the tuner knowledge about the engine as a prior knowledge. We tested our methods by simulation and owing to tests made on a 2L diesel engine, which was subjected to different hardware changes. In a second time, we considered that even if the Bayesian theory is able to take into account some knowledge, it does not take into account the hardware change characteristics. Thus, we decided to create a new model integrating physical parameters, like, for example, the number of holes in the injectors. We developed a model of diesel combustion. It simulates the evolution of thermodynamic variables inside the combustion chamber even for the multi injection case. Next, we adapted models of pollutants using these variables as inputs. We tested the whole model on prediction of cylinder pressure and pollutants over 2L diesel engine tests
6

Darblade, Gilles. "Méthodes numériques et conditions aux limites pour les modèles Shallow-Water multicouches." Bordeaux 1, 1997. http://www.theses.fr/1997BOR10588.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les modeles shallow water multicouches sont des approximations adiabatiques des equations navier stokes. L'integration de ces modeles est generalement effectuee par des schemas aux differences finies ou des formulations elements finis. Ils comportent de serieuses difficultes mathematiques dues au couplage entre les couches et a l'ecriture non conservative des equations. Nous proposons, pour les modeles shallow water multicouches, une nouvelle methode d'integration numerique construite grace a des techniques de l'hyperbolique non lineaire. Nous abordons ensuite, pour des modeles shallow water, la resolution des conditions aux limites de frontieres ouvertes. Nous proposons une nouvelle methode: les couches parfaitement absorbantes. Nous appliquons cette methode a un modele shallow water linearise autour d'un etat quelconque et obtenons des resultats preliminaires prometteurs.
7

Debreu, Laurent. "Raffinement adaptatif de maillage et méthodes de zoom : application aux modèles d'océan." Université Joseph Fourier (Grenoble), 2000. http://www.theses.fr/2000GRE10004.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Ce travail est centre sur l'etude des differents aspects lies au raffinement local, fixe ou adaptatif, de maillage dans le contexte de la modelisation oceanique. Apres avoir rappele les principales methodes de raffinement pour les maillages structures, nous insistons sur l'algorithme de berger et oliger, que nous avons choisi pour la suite. Une analyse numerique de cet algorithme mene, sous certaines hypotheses simplificatrices, a des conditions de stabilite et des estimations d'erreur faisant intervenir les operateurs de discretisation et de transferts inter-grilles (interpolations, restrictions). Les resultats mettent notamment en relief l'influence des petites echelles contenues dans la solution haute resolution sur la stabilite de l'algorithme, ainsi que le role de l'intervalle de temps entre les etapes de remaillage. Des applications a deux modeles d'ocean simplifies (modele quasi-geostrophique multicouches et modele en eau peu profonde) montrent les potentialites de la methode dans un cadre academique. Les solutions sont en effet tres proches de celles obtenues avec un maillage haute resolution couvrant l'ensemble du domaine, et ce pour un cout nettement moindre. Les difficultes de l'extension de ces resultats a un modele realiste sont ensuite exposees. L'attention est notamment portee sur la gestion de la topographie du fond de l'ocean, sur la non divergence du transport barotrope (hypothese du toit rigide) et sur la gestion des iles. De premieres experiences numeriques sont effectuees dans un modele aux equations primitives de l'ocean atlantique nord et equatorial. Enfin du point de vue informatique, l'insertion du raffinement adaptatif de maillage dans un code numerique existant est une tache difficile qui a pu etre grandement simplifiee grace au developpement de librairies specifiques. Le probleme de la parallelisation de l'algorithme de berger oliger est egalement evoque.
8

Montier, Laurent. "Application de méthodes de réduction de modèles aux problèmes d'électromagnétisme basse fréquence." Thesis, Paris, ENSAM, 2018. http://www.theses.fr/2018ENAM0029/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Dans le domaine de l'électrotechnique, la simulation numérique permet de s'affranchir d'essais qui peuvent être coûteux ou difficiles à réaliser. La Méthode des Éléments Finis est ainsi devenue une approche de référence dans ce contexte car elle permet d'obtenir des résultats précis sur des systèmes aux géométries complexes. Or, la simulation numérique d’un dispositif électrotechnique peut s’avérer coûteuse en temps de calcul du fait d’un nombre d’inconnues et de pas de temps important, ainsi que de fortes non-linéarités des matériaux ferromagnétiques. Il est alors nécessaire de mettre en œuvre des techniques permettant de réduire les temps de calcul nécessaires à la résolution de tels modèles numériques. Les méthodes de réduction de modèles semblent bien adaptées à ce type de problèmes car elles ont déjà été appliquées avec succès dans de nombreux domaines de l’ingénierie, notamment en mécanique des fluides et du solide. Une première catégorie de méthodes permet de rechercher la solution dans une base réduite afin de diminuer le nombre d’inconnues du modèle numérique. Pour ce type d’approche, les méthodes les plus connues sont la Proper Orthogonal Decomposition, la Proper Generalized Decomposition et la Projection d’Arnoldi. Une seconde catégorie regroupe les approches permettant de réduire le coût de calcul dû aux phénomènes non linéaires, grâce à des méthodes d’interpolation telles que l‘Empirical Interpolation Method et la Gappy POD. Cette thèse CIFRE a ainsi été effectuée dans le cadre du LAMEL (laboratoire commun entre le L2EP et EDF R&D) avec pour but d’identifier et d’implémenter les méthodes de réduction les mieux adaptées à l’électrotechnique. Celles-ci devront être capables de réduire le coût de calcul tout en prenant en compte le mouvement du rotor, les non-linéarités des matériaux ferromagnétiques mais aussi l’environnement électrique et mécanique du dispositif. Enfin, un indicateur évaluant l’erreur commise par le modèle réduit a été développé, offrant ainsi la garantie d’une précision suffisante sur les résultats
In the electrical engineering field, numerical simulation allows to avoid experiments which can be expensive, difficult to carry out or harmful for the device. In this context, the Finite Element Method has become to be one of the most used approach since it allows to obtain precise results on devices with complex geometries. However, these simulations can be computationally expensive because of a large number of unknowns and time-steps, and of strong nonlinearities of ferromagnetic materials to take into account. Numerical techniques to reduce the computational effort are thus needed. In this context, model order reduction approaches seem well adapted to this kind of problem since they have already been successfully applied to many engineering fields, among others, fluid and solid mechanics. A first class of methods allows to seek the solution in a reduced basis, allowing to dramatically reduce the number of unknowns of the numerical model. The most famous technics are probably the Proper Orthogonal Decomposition, the Proper Generalized Decomposition and the Arnoldi Projection. The second class of approaches consists of methods allowing to reduce the computational cost associated to nonlinearities, using interpolation methods like the Empirical Interpolation Method and the Gappy POD. This Ph.D. has been done within the LAMEL, the joint laboratory between the L2EP and EDF R&D, in order to identify and implement the model order reduction methods which are the most adapted to electrical engineering models. These methods are expected to reduce the computational cost while taking into account the motion of an electrical machine rotor, the nonlinearities of the ferromagnetic materials and also the mechanical and electrical environment of the device. Finally, an error indicator which evaluates the error introduced by the reduction technic has been developed, in order to guarantee the accuracy of the results obtained with the reduced model
9

Infante, Acevedo José Arturo. "Méthodes et modèles numériques appliqués aux risques du marché et à l'évaluation financière." Phd thesis, Université Paris-Est, 2013. http://tel.archives-ouvertes.fr/tel-00937131.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Méthodes et modèles numériques appliqués aux risques du marché et à l'évaluation financière Ce travail de thèse aborde deux sujets : (i) L'utilisation d'une nouvelle méthode numérique pour l'évaluation des options sur un panier d'actifs, (ii) Le risque de liquidité, la modélisation du carnet d'ordres et la microstructure de marché. Premier thème : Un algorithme glouton et ses applications pour résoudre des équa- tions aux dérivées partielles Beaucoup de problèmes d'intérêt dans différents domaines (sciences des matériaux, finance, etc) font intervenir des équations aux dérivées partielles (EDP) en grande dimension. L'exemple typique en finance est l'évaluation d'une option sur un panier d'actifs, laquelle peut être obtenue en résolvant l'EDP de Black-Scholes ayant comme dimension le nombre d'actifs considérés. Nous proposons d'é- tudier un algorithme qui a été proposé et étudié récemment dans [ACKM06, BLM09] pour résoudre des problèmes en grande dimension et essayer de contourner la malédiction de la dimension. L'idée est de représenter la solution comme une somme de produits tensoriels et de calculer itérativement les termes de cette somme en utilisant un algorithme glouton. La résolution des EDP en grande di- mension est fortement liée à la représentation des fonctions en grande dimension. Dans le Chapitre 1, nous décrivons différentes approches pour représenter des fonctions en grande dimension et nous introduisons les problèmes en grande dimension en finance qui sont traités dans ce travail de thèse. La méthode sélectionnée dans ce manuscrit est une méthode d'approximation non-linéaire ap- pelée Proper Generalized Decomposition (PGD). Le Chapitre 2 montre l'application de cette méthode pour l'approximation de la solution d'une EDP linéaire (le problème de Poisson) et pour l'approxima- tion d'une fonction de carré intégrable par une somme des produits tensoriels. Un étude numérique de ce dernier problème est présenté dans le Chapitre 3. Le problème de Poisson et celui de l'approxima- tion d'une fonction de carré intégrable serviront de base dans le Chapitre 4 pour résoudre l'équation de Black-Scholes en utilisant l'approche PGD. Dans des exemples numériques, nous avons obtenu des résultats jusqu'en dimension 10. Outre l'approximation de la solution de l'équation de Black-Scholes, nous proposons une méthode de réduction de variance des méthodes Monte Carlo classiques pour évaluer des options financières. Second thème : Risque de liquidité, modélisation du carnet d'ordres, microstructure de marché Le risque de liquidité et la microstructure de marché sont devenus des sujets très importants dans les mathématiques financières. La dérégulation des marchés financiers et la compétition entre eux pour attirer plus d'investisseurs constituent une des raisons possibles. Les règles de cotation sont en train de changer et, en général, plus d'information est disponible. En particulier, il est possible de savoir à chaque instant le nombre d'ordres en attente pour certains actifs et d'avoir un historique de toutes les transactions passées. Dans ce travail, nous étudions comment utiliser cette information pour exécuter de facon optimale la vente ou l'achat des ordres. Ceci est lié au comportement des traders qui veulent minimiser leurs coûts de transaction. La structure du carnet d'ordres (Limit Order Book) est très complexe. Les ordres peuvent seulement être placés dans une grille des prix. A chaque instant, le nombre d'ordres en attente d'achat (ou vente) pour chaque prix est enregistré. Pour un prix donné, quand deux ordres se correspondent, ils sont exécutés selon une règle First In First Out. Ainsi, à cause de cette complexité, un modèle exhaustif du carnet d'ordres peut ne pas nous amener à un modèle où, par exemple, il pourrait être difficile de tirer des conclusions sur la stratégie optimale du trader. Nous devons donc proposer des modèles qui puissent capturer les caractéristiques les plus importantes de la structure du carnet d'ordres tout en restant possible d'obtenir des résultats analytiques. Dans [AFS10], Alfonsi, Fruth et Schied ont proposé un modèle simple du carnet d'ordres. Dans ce modèle, il est possible de trouver explicitement la stratégie optimale pour acheter (ou vendre) une quantité donnée d'actions avant une maturité. L'idée est de diviser l'ordre d'achat (ou de vente) dans d'autres ordres plus petits afin de trouver l'équilibre entre l'acquisition des nouveaux ordres et leur prix. Ce travail de thèse se concentre sur une extension du modèle du carnet d'ordres introduit par Alfonsi, Fruth et Schied. Ici, l'originalité est de permettre à la profondeur du carnet d'ordres de dépendre du temps, ce qui représente une nouvelle caractéristique du carnet d'ordres qui a été illustré par [JJ88, GM92, HH95, KW96]. Dans ce cadre, nous résolvons le problème de l'exécution optimale pour des stratégies discrétes et continues. Ceci nous donne, en particulier, des conditions suffisantes pour exclure les manipulations des prix au sens de Huberman et Stanzl [HS04] ou de Transaction- Triggered Price Manipulation (voir Alfonsi, Schied et Slynko). Ces conditions nous donnent des intu- itions qualitatives sur la manière dont les teneurs de marché (market makers) peuvent créer ou pas des manipulations des prix.
10

Baskind, Alexis. "Modèles et méthodes de description spatiale de scènes sonores : application aux enregistrements binauraux." Paris 6, 2003. http://www.theses.fr/2003PA066407.

Full text
APA, Harvard, Vancouver, ISO, and other styles

Books on the topic "Méthodes Agnostiques aux Modèles":

1

St-Pierre, Armand. Méthodes analytiques appliquées aux problèmes de gestion. Saint-Jean-sur-Richelieu, Qué: Éditions Bo-pré, 1986.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
2

Bertrand, Richard. Mode les de mesure: L'apport de la the orie des re ponses aux items. Sainte-Foy [Que.]: Presses de l'Universite du Que bec, 2004.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
3

L, Nering Michael, and Ostini Remo, eds. Handbook of polytomous item response theory models. New York: Routledge, 2010.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
4

Ostini, Remo, and Michael L. Nering. Handbook of Polytomous Item Response Theory Models. Taylor & Francis Group, 2011.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
5

Ostini, Remo, and Michael L. Nering. Handbook of Polytomous Item Response Theory Models. Taylor & Francis Group, 2011.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
6

Ostini, Remo, and Michael L. Nering. Handbook of Polytomous Item Response Theory Models. Routledge, 2011.

Find full text
APA, Harvard, Vancouver, ISO, and other styles

Book chapters on the topic "Méthodes Agnostiques aux Modèles":

1

PONTY, Yann, and Vladimir REINHARZ. "Repliement de l’ARN." In Des séquences aux graphes, 187–229. ISTE Group, 2023. http://dx.doi.org/10.51926/iste.9066.ch6.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Focalisé sur les séquences d'ARN, ce chapitre présente les méthodes d'inférence des repliements en structure secondaire. Il s'intéresse d'une part aux approches d'optimisation (énergie minimale), et d'autre part aux approches ensemblistes et probabilistes, et enfin au modèle de Turner s'intéressant aux motifs, avant d'aborder les différentes implémentations de ces modèles.
2

SIGRIST, Jean-François. "Méthodes « basses fréquences » en vibroacoustique des navires." In Interactions fluide-structure, 39–59. ISTE Group, 2022. http://dx.doi.org/10.51926/iste.9078.ch2.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Ce chapitre s’intéresse aux modélisations physiques, aux formulations mathématiques et aux méthodes numériques utilisées afin de décrire, simuler et prédire les niveaux vibratoires de structures immergées dans un fluide stagnant. Les modèles présentés permettent de rendre compte des vibrations en « basses fréquences » et de décrire les effets de dissipation visqueuse (dans les structures) et radiative (dans le fluide).
3

YASTREBOV, Vladislav A. "Méthodes numériques en contact micromécanique." In Modélisation numérique en mécanique fortement non linéaire, 87–145. ISTE Group, 2023. http://dx.doi.org/10.51926/iste.9081.ch3.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les méthodes numériques pour traiter des problèmes du contact à petites échelles ainsi que des modèles associés sont discutés. Une revue d’applications de la méthode des éléments finis et celle des éléments de frontière aux problèmes du contact rugueux est faite. Les deux applications pertinentes sont présentées en détail : le contact des aspérités et le contact des surfaces rugueuses.
4

SANMARTÍN, Isabel. "Approches analytiques en biogéographie : progrès et défis." In La biogéographie, 37–69. ISTE Group, 2022. http://dx.doi.org/10.51926/iste.9060.ch2.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Ce chapitre présente une introduction aux méthodes analytiques en biogéographie : que nous apprennent les relations phylogénétiques sur les processus fondamentaux qui ont façonné la répartition des espèces sur Terre ? Des méthodes cladistiques, axées sur les modèles biogéographiques, nous passons à la biogéographie événementielle, incorporant les mécanismes sous-jacents, et, plus récemment, aux méthodes paramétriques, avec l'intégration du temps tant recherchée. Enfin, la discipline s'est récemment enrichie de sources d'information supplémentaires provenant des archives fossiles, de l'écologie des espèces et des reconstructions paléogéographiques, ainsi que de l'intégration des processus au niveau des populations.
5

SIMANI, Silvio. "Méthodes guidées par les données pour le diagnostic de défauts." In Diagnostic et commande à tolérance de fautes 1, 167–233. ISTE Group, 2024. http://dx.doi.org/10.51926/iste.9058.ch5.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Le problème d'identification de systèmes inconnus à partir d'échantillons de comportement est complexe car sa solution n'est pas unique et dépend des données. Les informations préalables sur le système facilitent l'identification en restreignant les modèles possibles. Les méthodes s'appuient sur des résultats algébriques et statistiques, notamment le schéma de Frisch, étendu aux systèmes dynamiques.
6

BEN-AHMED, Sabrina, Jean-Noël ALBERTINI, Jean-Pierre FAVRE, C. Alberto FIGUEROA, Eugenio ROSSET, Francesca CONDEMI, and Stéphane AVRIL. "Simulations numériques de l’impact hémodynamique des interventions endovasculaires complexes." In Écoulements biologiques dans les grands vaisseaux, 45–70. ISTE Group, 2023. http://dx.doi.org/10.51926/iste.9065.ch2.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les méthodes existantes de réparation endo-vasculaire aortique sont présentées. Neuf modèles synthétiques réalistes sont proposés, comportant des niveaux de sténose différents, et des conditions aux limites adaptées. Les simulations effectuées permettent de calculer débits, pressions et contraintes pariétales. Ces résultats pourront venir en aide au médecin afin de mieux appréhender la méthode optimale d'intervention.
7

CRIQUI, Patrick, Rodica LOISEL, and Lionel LEMIALE. "Scénarios prospectifs à l’horizon 2050." In Économie de l’énergie nucléaire 2, 175–236. ISTE Group, 2022. http://dx.doi.org/10.51926/iste.9095.ch5.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Ce chapitre présente divers modèles prospectifs dans lesquels le nucléaire a une place plus ou moins grande. Après un historique rappelant les méthodes prospectives utilisées depuis les années 1970, il aborde les défis d’une modélisation de scénarios cherchant la neutralité carbone à l’horizon 2050. L’analyse de sensibilité met en évidence les incertitudes liées aux trajectoires technologiques du futur. Une attention particulière est accordée aux 6 scénarios présentés fin 2021 par RTE pour la France à l’horizon 2050, parmi lesquels un scénario retenant une production d’électricité constituée à 50% par du nucléaire et à 50% par des renouvelables.
8

DIMITROV, Boyan. "Distributions et processus aléatoires liés aux modèles de files d’attente et de fiabilité." In Théorie des files d’attente 2, 91–147. ISTE Group, 2021. http://dx.doi.org/10.51926/iste.9004.ch3.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Dans ce chapitre, nous abordons les distributions de probabilités et les processus aléatoires liés aux modèles de file d'attente et de fiabilité incorporés dans un environnement périodique. L'analyse de ces distributions nous aide à comprendre leur structure et à étendre le champ de leurs applications et leur pouvoir de modélisation. Nous voyons comment elles peuvent être utilisées pour modéliser divers processus en économie, en études actuarielles, dans l'industrie, la démographie, les études environnementales, et comment leur utilisation se répercute sur l'assurance, l'analyse des risques et des coûts. Ce chapitre est conçu pour donner des incitations, des compétences analytiques et de l’inspiration aux étudiants et aux chercheurs. De nouvelles orientations sont marquées. Les approches, les méthodes et les résultats donnent une base pour de multiples études et applications ultérieures.
9

Aebi, Carol. "Recherches sur la Sustainability." In Recherches sur la Sustainability, 295–309. EMS Editions, 2023. http://dx.doi.org/10.3917/ems.cheva.2023.01.0295.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La durabilité sociale pourrait, un jour, être le fruit d’une interaction entre l’homme et le cyberespace. Un réseau de systèmes d’information pour la durabilité est un instrument qui collecte, connecte et partage des données à travers la société. Un tel réseau de systèmes d’information, conçu pour différencier les données relatives à diverses parties prenantes en fonction du moment et de l’échelle, est encore inexistant. Cependant, des projets, des modèles et des collaborations sont en cours, réunissant les entreprises et les universités pour faire avancer cette cause. Les principaux problèmes liés à la complexité de la société et au manque d’ensembles de données de qualité, résultats de méthodes d’évaluation contradictoires et de variations de terminologie dans les domaines scientifiques, appellent des travaux de recherches supplémentaires avant que des systèmes d’information puissent être développés de manière efficace. L’harmonisation des évaluations, des mesures et des outils de mesure de la valeur sociale est une première étape vers l’introduction d’un modèle qui servira de guide aux parties prenantes pour discuter, et aux ingénieurs en informatique pour développer, tester, mettre en œuvre et améliorer les technologies qui interagiront, fonctionneront et penseront conformément aux attentes de la société en termes de durabilité. Les universitaires et les décideurs politiques font converger la recherche empirique et les réformes. Le Mécanisme de Facilitation Technologique (MFT) de l’Organisation des Nations unies (ONU) favorise la collaboration entre les différentes parties prenantes et les États membres. Le cadre des systèmes socio-écologiques (SES) permet aux chercheurs de différentes disciplines, secteurs ou zones géographiques d’élaborer et de tester des théories et des modèles avec un vocabulaire commun dans des contextes empiriques différents. Un concept d’écosystème numérique stigmergique en est aux premiers stades de la modélisation pour faciliter l’auto-organisation des processus. Des recherches récentes ont étudié les exigences sociétales d’un réseau de système d’information stigmergique (SIS) pour la durabilité sociale. Les technologies distribuées sans échelle et le supercalculateur, l’intégration des ensembles de données et l’agrégation des informations pourraient, un jour, guider les entreprises et les décideurs vers des activités susceptibles de résoudre les problèmes sociaux.

Conference papers on the topic "Méthodes Agnostiques aux Modèles":

1

Hadj SaÏd, M., F. Campana, U. Ordioni, R. Lan, and C. M. Chossegros. "Tendances saisonnières des alvéolites et cellulites de la face en France : données du moteur de recherche Google Trends©." In 66ème Congrès de la SFCO. Les Ulis, France: EDP Sciences, 2020. http://dx.doi.org/10.1051/sfco/20206603001.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Introduction : Certaines pathologies présentent des tendances saisonnières dans leur incidence et leur prévalence. Ces tendances s’expriment par l’intérêt affiché dans le nombre de recherches sur Internet pour ces pathologies selon les mois de l’année. Matériel et Méthodes : Les données des requêtes de Google Trends© ont été extraites de décembre 2007 à décembre 2017. Celles-ci ont été traitées et calculées par volume trimestriel de recherche correspondant à chacune des quatre saisons sur cette période de 10 ans. Les données ont été isolées pour la région géographique spécifique correspondant à la France pour les termes de recherche suivants : « alvéolite », « cellulite de la face », « alvéolite dentaire », « cellulite dentaire » et « abcès dentaire ». Le même procédé a été réalisé pour les régions géographiques correspondant aux USA et à l’Australie avec les termes de recherche « alveolitis », « facial cellulitis », « dental alveolitis », « dental cellulitis », « dental abcess ». Les effets saisonniers ont été calculés à l’aide de modèles de régression. Résultats : En France, le volume de recherche est le plus élevé en hiver. Les patients manifestent le plus faible intérêt de recherche pour les cellulites et abcès dentaires pendant l’été (p <0,05). Les variations saisonnières sont comparables aux EZtats-Unis (hémisphère nord) alors qu’en Australie (hémisphère sud), elles présentent une tendance inverse. Les tendances de recherche pour l’alvéolite sont stables durant l’année (p <0,05). Conclusion : Au regard des données des requêtes de Google Trends, les cellulites de la face semblent plus susceptibles de se produire pendant les mois d’hiver, contrairement aux alvéolites qui n’ont pas de tendance saisonnière.
2

Fontanille, Jacques. "La sémiotique est-elle un art ? Le faire sémiotique comme « art libéral »." In Arts du faire : production et expertise. Limoges: Université de Limoges, 2009. http://dx.doi.org/10.25965/as.3343.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
En référence à la classification médiévale des activités et domaines culturels, la sémiotique, saisie principalement comme un « faire », serait un des « arts libéraux » contemporains, c’est-à-dire, selon l’acception courante, « ceux dans lesquels le travail intellectuel est dominant », ce en quoi ils s’opposent par exemple aux « arts mécaniques » ou aux « beaux-arts », qui mettent en œuvre d’autres facultés dominantes. Dans cette perspective, bien entendu, la sémiotique perd son caractère de « projet scientifique », au sens où l’entendait Greimas, c’est-à-dire de connaissance généralisable, projective, construite par voie hypothético-déductive, reposant sur une théorie, des modèles et des méthodes empiriques. Mais elle ne le perd pas plus, pour autant, que la médecine, quand cette dernière passe de la recherche dite « in vitro » à la recherche dite « clinique » ; tout comme pour la médecine, en effet, il s’agit du passage d’une science fondamentale à une « pratique scientifique ». La sémiotique considérée comme un art est donc une pratique, où l’intelligence, la sensibilité, l’émotion et le goût ont également part. Et, tout comme la médecine encore, c’est une pratique dont le « texte » est un discours scientifique. C’est donc sur le fond de cette problématique générale qu’après avoir circonscrit le faire sémiotique comme « art » et comme « pratique », je voudrais ébaucher la description de quelques pratiques sémiotiques typiques : celles, notamment, de Jean-Marie Floch, d’Eric Landowski, d’Algirdas Julien Greimas ou de Claude Zilberberg.
3

Bernonville, Stéphanie, and Marie-Catherine Beuscart-Zéphir. "Mise en œuvre d'un système d'aide aux choix des méthodes et modèles du GL et de I'IHM dans le cadre de projets visant I'informatisation de processus complexes en milieu hospitalier." In the 20th International Conference of the Association Francophone d'Interaction Homme-Machine. New York, New York, USA: ACM Press, 2008. http://dx.doi.org/10.1145/1512714.1512743.

Full text
APA, Harvard, Vancouver, ISO, and other styles

Reports on the topic "Méthodes Agnostiques aux Modèles":

1

Marsden, Eric. Partage des modèles de sécurité entre donneurs d’ordres et entreprises intervenantes. Fondation pour une culture de sécurité industrielle, December 2018. http://dx.doi.org/10.57071/360upb.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Ce document s’intéresse à la sécurité des activités industrielles dans lesquelles une part importante du travail est externalisée ou sous-traitée. Ces activités impliquent une collaboration entre de nombreuses entreprises, dont l’entreprise utilisatrice (dite aussi donneur d’ordres) et un ensemble d’entreprises intervenantes. Les relations entre entreprises utilisatrices et intervenantes sont très variables, certaines pouvant être proches de la mise à disposition de main d’œuvre, où les règles de sécurité, la formation aux risques et l’évaluation des risques des activités sont principalement déterminées par l’entreprise utilisatrice, selon son référentiel interne; et d’autres où l’expertise ainsi que la connaissance des risques des opérations conduites et des méthodes de travail sûres sont plus développées chez l’entreprise intervenante que chez l’entreprise utilisatrice. La sécurité ne peut être décrétée depuis le siège d'une grande entreprise, mais doit être co-construite par l'ensemble des acteurs: concepteurs des installations, rédacteurs des modes opératoires et du référentiel de sécurité, personnes préparant et planifiant les interventions, et personnes intervenant sur le terrain. La définition et la mise en œuvre passent donc d’une organisation verticale avec un donneur d’ordres à la tête, vers une organisation plus horizontale entre partenaires. Cette organisation nécessite une bonne coordination entre les acteurs, dans le cadre d'une relation partenariale. Ce document analyse différentes modalités de cette coordination entre les acteurs et leurs effets sur la sécurité. Il identifie un certain nombre de points posant problème dans la relation entre les entreprises utilisatrices et intervenantes, en particulier dans le domaine de la maintenance et les travaux neufs, et suggère un certain nombre de bonnes pratiques pour améliorer le partenariat et donner du sens à la notion de co-construction de la sécurité.

To the bibliography