Добірка наукової літератури з теми "Explication contrefactuelle"

Оформте джерело за APA, MLA, Chicago, Harvard та іншими стилями

Оберіть тип джерела:

Ознайомтеся зі списками актуальних статей, книг, дисертацій, тез та інших наукових джерел на тему "Explication contrefactuelle".

Біля кожної праці в переліку літератури доступна кнопка «Додати до бібліографії». Скористайтеся нею – і ми автоматично оформимо бібліографічне посилання на обрану працю в потрібному вам стилі цитування: APA, MLA, «Гарвард», «Чикаго», «Ванкувер» тощо.

Також ви можете завантажити повний текст наукової публікації у форматі «.pdf» та прочитати онлайн анотацію до роботи, якщо відповідні параметри наявні в метаданих.

Статті в журналах з теми "Explication contrefactuelle"

1

Levy, François. "Statistique et contrefactuels : quelques explications." Intellectica. Revue de l'Association pour la Recherche Cognitive 38, no. 1 (2004): 187–91. http://dx.doi.org/10.3406/intel.2004.1712.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
2

Auray, Stéphane, Aurélien Eyquem, Bertrand Garbinti, and Jonathan Goupille-Lebret. "Inégalités de revenu et de patrimoine : modèles, données et perspectives croisées." Revue française d'économie Vol. XXXIX, no. 1 (July 22, 2024): 81–124. http://dx.doi.org/10.3917/rfe.241.0081.

Повний текст джерела
Анотація:
Bien que liées par l’étude d’un objet commun, les approches empiriques permettant de mesurer les inégalités de revenu et de patrimoine et les approches macroéconomiques semblent s’être développées de manière relativement disjointe. Dans cet article, nous revenons sur les origines et développements de ces deux littératures. Nous montrons comment leurs évolutions récentes ouvrent la possibilité d’un dialogue fructueux, et l’illustrons par les travaux d’Auray et al. [2022], qui étudient les facteurs explicatifs des inégalités de revenu et de patrimoine en France depuis 1984. A l’aide d’un modèle à agents hétérogènes et d’analyses contrefactuelles, ces travaux mettent en lumière le rôle clé de l’augmentation du pouvoir de marché des entreprises, des réformes du système socio-fiscal et des variations différenciées du prix des actifs sur la dynamique des inégalités.
Стилі APA, Harvard, Vancouver, ISO та ін.
3

Harvey, Frank P. "President Al Gore and the 2003 Iraq War: A Counterfactual Test of Conventional “W”isdom." Canadian Journal of Political Science 45, no. 1 (March 2012): 1–32. http://dx.doi.org/10.1017/s0008423911000904.

Повний текст джерела
Анотація:
Abstract.The almost universally accepted explanation for the Iraq war is very clear and consistent, namely, the US decision to attack Saddam Hussein's regime on March 19, 2003, was a product of the ideological agenda, misguided priorities, intentional deceptions and grand strategies of President George W. Bush and prominent “neoconservatives” and “unilateralists” on his national security team. Notwithstanding the widespread appeal of this version of history, however, the Bush-neocon war thesis (which I have labelledneoconism) remains an unsubstantiated assertion, a “theory” without theoretical content or historical context, a position lacking perspective and a seriously underdeveloped argument absent a clearly articulated logical foundation.Neoconismis, in essence, a popular historical account that overlooks a substantial collection of historical facts and relevant causal mechanisms that, when combined, represent a serious challenge to the core premises of accepted wisdom. This article corrects these errors, in part, by providing a much stronger account of events and strategies that pushed the US-UK coalition closer to war. The analysis is based on both factual and counterfactual evidence, combines causal mechanisms derived from multiple levels of analysis and ultimately confirms the role of path dependence and momentum as a much stronger explanation for the sequence of decisions that led to war.Résumé.L'explication quasi-universellement acceptée de la guerre d'Irak est très claire et sans équivoque : la décision des États-Unis de renverser le régime de Saddam Hussein le 19 mars 2003 était le résultat d'un programme idéologique, de priorités erronées, de déceptions intentionnelles, de grandes manœuvres stratégiques du président George W. Bush, d'éminents «néoconservateurs» et partisans de l'« unilatéralisme » présents dans l'équipe chargée de la sécurité nationale. Certes cette version de l'histoire constitue une idée largement répandue, mais la thèse de la guerre-néocon-de-Bush – que je désigne sous le terme neoconism – demeure une assertion dénuée de fondements, une ‘théorie’ sans contenu théorique ou contexte historique, un point de vue sans perspective, un argument qui ne fait pas de poids, et qui ne repose sur aucun raisonnement logique clairement articulé. Le neoconism est essentiellement un compte rendu historique populaire qui néglige une ensemble important de faits historiques et de mécanismes de causalité pertinents qui, mis ensemble, constituent un défi taille aux principaux prémisses de la sagesse acceptée. Le présent article se propose de corriger en partie les erreurs surévoquées, en en fournissant un compte rendu beaucoup plus solide des faits et stratégies qui ont amené la coalition États-Unis – Royaume-Uni à aller en guerre contre le régime irakien d'alors. L'analyse se fonde à la fois sur des preuves factuelles et contrefactuelles, avec l'appui des mécanismes de cause à effet inspirés de différents niveaux d'analyse, et confirme enfin le rôle joué par le concept de Path dependence (Dépendance au chemin emprunté) et de la dynamique comme explication beaucoup plus convaincante de la série de décisions ayant conduit à la guerre.
Стилі APA, Harvard, Vancouver, ISO та ін.

Дисертації з теми "Explication contrefactuelle"

1

Jeanneret, Sanmiguel Guillaume. "Towards explainable and interpretable deep neural networks." Electronic Thesis or Diss., Normandie, 2024. http://www.theses.fr/2024NORMC229.

Повний текст джерела
Анотація:
Les architectures neuronales profondes ont démontré des résultats remarquables dans diverses tâches de vision par ordinateur. Cependant, leur performance extraordinaire se fait au détriment de l'interprétabilité. En conséquence, le domaine de l'IA explicable a émergé pour comprendre réellement ce que ces modèles apprennent et pour découvrir leurs sources d'erreur. Cette thèse explore les algorithmes explicables afin de révéler les biais et les variables utilisés par ces modèles de boîte noire dans le contexte de la classification d'images. Par conséquent, nous divisons cette thèse en quatre parties. Dans les trois premiers chapitres, nous proposons plusieurs méthodes pour générer des explications contrefactuelles. Tout d'abord, nous incorporons des modèles de diffusion pour générer ces explications. Ensuite, nous lions les domaines de recherche des exemples adversariaux et des contrefactuels pour générer ces derniers. Le suivant chapitre propose une nouvelle méthode pour générer des contrefactuels en mode totalement boîte noire, c'est-à-dire en utilisant uniquement l'entrée et la prédiction sans accéder au modèle. La dernière partie de cette thèse concerne la création de méthodes interprétables par conception. Plus précisément, nous étudions comment étendre les transformeurs de vision en architectures interprétables. Nos méthodes proposées ont montré des résultats prometteurs et ont avancé la frontière des connaissances de la littérature actuelle sur l'IA explicable
Deep neural architectures have demonstrated outstanding results in a variety of computer vision tasks. However, their extraordinary performance comes at the cost of interpretability. As a result, the field of Explanable AI has emerged to understand what these models are learning as well as to uncover their sources of error. In this thesis, we explore the world of explainable algorithms to uncover the biases and variables used by these parametric models in the context of image classification. To this end, we divide this thesis into four parts. The first three chapters proposes several methods to generate counterfactual explanations. In the first chapter, we proposed to incorporate diffusion models to generate these explanations. Next, we link the research areas of adversarial attacks and counterfactuals. The next chapter proposes a new pipeline to generate counterfactuals in a fully black-box mode, \ie, using only the input and the prediction without accessing the model. The final part of this thesis is related to the creation of interpretable by-design methods. More specifically, we investigate how to extend vision transformers into interpretable architectures. Our proposed methods have shown promising results and have made a step forward in the knowledge frontier of current XAI literature
Стилі APA, Harvard, Vancouver, ISO та ін.
2

Laugel, Thibault. "Interprétabilité locale post-hoc des modèles de classification "boites noires"." Electronic Thesis or Diss., Sorbonne université, 2020. http://www.theses.fr/2020SORUS215.

Повний текст джерела
Анотація:
Cette thèse porte sur le domaine du XAI (explicabilité de l'IA), et plus particulièrement sur le paradigme de l'interprétabilité locale post-hoc, c'est-à-dire la génération d'explications pour une prédiction unique d'un classificateur entraîné. En particulier, nous étudions un contexte totalement agnostique, c'est-à-dire que l'explication est générée sans utiliser aucune connaissance sur le modèle de classification (traité comme une boîte noire) ni les données utilisées pour l'entraîner. Dans cette thèse, nous identifions plusieurs problèmes qui peuvent survenir dans ce contexte et qui peuvent être préjudiciables à l'interprétabilité. Nous nous proposons d'étudier chacune de ces questions et proposons des critères et des approches nouvelles pour les détecter et les caractériser. Les trois questions sur lesquelles nous nous concentrons sont : le risque de générer des explications qui sont hors distribution ; le risque de générer des explications qui ne peuvent être associées à aucune instance d'entraînement ; et le risque de générer des explications qui ne sont pas assez locales. Ces risques sont étudiés à travers deux catégories spécifiques d'approches de l'interprétabilité : les explications contrefactuelles et les modèles de substitution locaux
This thesis focuses on the field of XAI (eXplainable AI), and more particularly local post-hoc interpretability paradigm, that is to say the generation of explanations for a single prediction of a trained classifier. In particular, we study a fully agnostic context, meaning that the explanation is generated without using any knowledge about the classifier (treated as a black-box) nor the data used to train it. In this thesis, we identify several issues that can arise in this context and that may be harmful for interpretability. We propose to study each of these issues and propose novel criteria and approaches to detect and characterize them. The three issues we focus on are: the risk of generating explanations that are out of distribution; the risk of generating explanations that cannot be associated to any ground-truth instance; and the risk of generating explanations that are not local enough. These risks are studied through two specific categories of interpretability approaches: counterfactual explanations, and local surrogate models
Стилі APA, Harvard, Vancouver, ISO та ін.
3

Lerouge, Mathieu. "Designing and generating user-centered explanations about solutions of a Workforce Scheduling and Routing Problem." Electronic Thesis or Diss., université Paris-Saclay, 2023. http://www.theses.fr/2023UPAST174.

Повний текст джерела
Анотація:
Les systèmes d'aide à la décision basés sur l'optimisation combinatoire trouvent des applications dans divers domaines professionnels. Cependant, les décideurs qui utilisent ces systèmes ne comprennent souvent pas les concepts mathématiques et les principes algorithmiques qui les sous-tendent. Ce manque de compréhension peut entraîner du scepticisme et une réticence à accepter les solutions générées par le système, érodant ainsi la confiance placée dans le système. Cette thèse traite cette problématique dans le cas du problème de planification d'employés mobiles, en anglais Workforce Scheduling and Routing Problem (WSRP), un problème d'optimisation combinatoire couplant de l'allocation de ressources humaines et du routage.Tout d'abord, nous proposons un cadre qui modélise le processus d'explication de solutions pour les utilisateurs d'un système de résolution de WSRP, permettant d'aborder une large gamme de sujets. Les utilisateurs initient le processus en faisant des observations sur une solution et en formulant des questions liées à ces observations grâce à des modèles de texte prédéfinis. Ces questions peuvent être de type contrastif, scénario ou contrefactuel. D'un point de vue mathématique, elles reviennent essentiellement à se demander s'il existe une solution faisable et meilleure dans un voisinage de la solution courante. Selon les types de questions, cela conduit à la formulation d'un ou de plusieurs problèmes de décision et de programmes mathématiques.Ensuite, nous développons une méthode pour générer des textes d'explication de différents types, avec un vocabulaire de haut niveau adapté aux utilisateurs. Notre méthode repose sur des algorithmes efficaces calculant du contenu explicatif afin de remplir des modèles de textes d'explication. Des expériences numériques montrent que ces algorithmes ont des temps d'exécution globalement compatibles avec une utilisation en temps quasi-réel des explications par les utilisateurs.Enfin, nous présentons un design de système structurant les interactions entre nos techniques de génération d'explications et les utilisateurs qui reçoivent les textes d'explication. Ce système sert de base à un prototype d'interface graphique visant à démontrer l'applicabilité pratique et les potentiels bénéfices de notre approche dans son ensemble
Decision support systems based on combinatorial optimization find application in various professional domains. However, decision-makers who use these systems often lack understanding of their underlying mathematical concepts and algorithmic principles. This knowledge gap can lead to skepticism and reluctance in accepting system-generated solutions, thereby eroding trust in the system. This thesis addresses this issue in the case of the Workforce Scheduling and Routing Problems (WSRP), a combinatorial optimization problem involving human resource allocation and routing decisions.First, we propose a framework that models the process for explaining solutions to the end-users of a WSRP-solving system while allowing to address a wide range of topics. End-users initiate the process by making observations about a solution and formulating questions related to these observations using predefined template texts. These questions may be of contrastive, scenario or counterfactual type. From a mathematical point of view, they basically amount to asking whether there exists a feasible and better solution in a given neighborhood of the current solution. Depending on the question types, this leads to the formulation of one or several decision problems and mathematical programs.Then, we develop a method for generating explanation texts of different types, with a high-level vocabulary adapted to the end-users. Our method relies on efficient algorithms for computing and extracting the relevant explanatory information and populates explanation template texts. Numerical experiments show that these algorithms have execution times that are mostly compatible with near-real-time use of explanations by end-users. Finally, we introduce a system design for structuring the interactions between our explanation-generation techniques and the end-users who receive the explanation texts. This system serves as a basis for a graphical-user-interface prototype which aims at demonstrating the practical applicability and potential benefits of our approach
Стилі APA, Harvard, Vancouver, ISO та ін.
Ми пропонуємо знижки на всі преміум-плани для авторів, чиї праці увійшли до тематичних добірок літератури. Зв'яжіться з нами, щоб отримати унікальний промокод!

До бібліографії