To see the other types of publications on this topic, follow the link: Principes logiques.

Dissertations / Theses on the topic 'Principes logiques'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 35 dissertations / theses for your research on the topic 'Principes logiques.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Arazam, Yannis. "Les lois logiques sont-elles révisables ?" Electronic Thesis or Diss., Strasbourg, 2024. http://www.theses.fr/2024STRAC027.

Full text
Abstract:
Le problème du révisionnisme logique a traversé les réflexions des auteurs majeurs de la philosophie analytique du xxe siècle, de Wittgenstein à Dummett en passant par Quine, Putnam ou Kripke. Il s’agit pour eux de traiter à nouveaux frais d’un problème qui a pris différentes formes dans l’histoire de la philosophie. Les développements en logique mathématique suivant la révolution frégéenne ou encore en physique avec la formalisation de la mécanique quantique, ont marqué le renouveau de ce problème qui se pose avec une acuité sans précédent. Y a-t-il un sens à remettre en cause certaines lois logiques classiquement admises depuis Aristote; plus simplement encore, est-il intelligible de changer de logique ? Le rejet intuitionniste du tiers-exclu ou plus généralement le développement de « logiques alternatives » marquent-ils un tournant dans l’histoire de la logique ? La difficulté soulevée tient au caractère constitutif de la logique pour penser : si ses lois sont les normes de l’intelligibilité, alors comment les remettre en cause sans abolir par là-même toute possibilité de sens ? Le présent travail retrace l’histoire de cette difficulté dans le corpus analytique classique, et en tire de nouvelles perspectives au moyen du concept de paradigme et au contact de certains développements logiques de la seconde moitié du xxe siècle
The problem of revising logic permeated the thinking of the major authors of the analytic tradition in the 20th century. From Wittgenstein to Dummett and through Quine, Putnam or Kripke, authors have tackled afresh a problem that has taken various forms throughout the history of philosophy. Developments in mathematical logic following the fregean revolution, or even the formalization of quantum mechanics, have both renewed and sharpened the problem. Is there any sense in questioning logical laws classically acknowledged since Aristotle? More simply put, is it intelligible to change our logic ? Are the intuitionnistic refusal of the law of excluded-middle and, more generally, the emergence of "alternative logics" constitutive of a turning point in the history of logic ? The difficulty faced stems from the constitutive nature of logic for thought : if logical laws are the norms of intelligibility, how can they be challenged without undermining the very possibility of meaning ? This work traces this difficulty back to the classical analytical corpus, and gets new perspectives out of it by means of the concept of paradigm, alongside logical developments in the second-half of the 20th century
APA, Harvard, Vancouver, ISO, and other styles
2

Dufatanye, Aimable-André. "Le principe de non-contradiction. considérations logiques, mathématiques et ontologiques : De la nature et de la valeur du principe de non-contradiction, contribution de Jan Łukasiewicz à l'interprétation d'Aristote." Thesis, Lyon, École normale supérieure, 2011. http://www.theses.fr/2011ENSL0669.

Full text
Abstract:
En mathématiques et en logique classiques, on démontre que {P,¬P}├Q. C’est le fameux ex contradictione sequitur quodlibet, nommé également principe d’explosion. Si une théorie contradictoire est condamnée à exploser, c.à.d. à devenir triviale et à perdre tout intérêt pour la science, il faut à tout prix éviter la contradiction qui, pour ainsi dire, joue le rôle de détonateur. Dès lors, il devient impératif de nier toute conjonction d’une formule et de sa négation. C’est le principe de non-contradiction (PNC) symbolisé par ¬(P^¬P), une tautologie en logique mathématique classique. Aristote, déjà, dans l’antiquité, avait explicitement formulé le PNC qui, depuis, a été élevé au rang de principe définitif et absolu. Quelques rares mais irréductibles détracteurs, toutefois, ont mis en cause le statut absolu de ce principe. La présente thèse est une rediscussion du PNC -de son statut, de sa validité, de sa valeur- qui s’appuie sur le travail du logicien J. Łukasiewicz. Il sera établi que la mise en cause de l’absoluité du PNC proposée par le logicien n’est pas un prolongement des thèses sophistes antiques. Ses critiques s’inscrivent dans le cadre d’une Gegenstandstheorie twardowsko-meinongienne. La combinaison des éléments hérités de la théorie des objets et d’une analyse originale usant des outils de l’algèbre de la logique dans l’interprétation des textes anciens a permis au logicien de dégager l’idée cardinale selon laquelle on peut récuser l’absoluité du PNC sans tomber dans le trivialisme. Il sera démontré que ses travaux contiennent, pour la logique, l’esquisse d’un nouveau paradigme fondé sur la désabsolutisation du PNC, par sa dissociation d’avec le principe d’explosion
In mathematics and classical logic, one proves that {P,¬P}├Q. This is the celebrated ex contradictione sequitur quodlibet, also named the principle of explosion. If a contradictory theory is condemned to explode, that is to become trivial and to lose all interest from a scientific point of view, one must at all costs avoid any contradiction which plays the role of detonator. Consequently, it is necessary to deny any conjunction of a formula and its negation. This is the principle of non-contradiction (PNC) symbolised by ¬(P^¬P), a tautology in classical mathematical logic. Already in antiquity, Aristotle had explicitly formulated PNC which, since, has been elevated to the status of a definitive and an absolute principle. However, a few obstinate critics have questioned the absolute status of this principle. The present thesis is a reappraisal of PNC -of its status, its validity, its value- which builds on the work of the logician J. Łukasiewicz. It will be demonstrated that the critique of absoluteness attributed to PNC proposed by Łukasiewicz is not a continuation of the theses of the ancient sophists. His criticisms can be placed in the framework of a Twardowskian-Meinongian Gegenstandstheorie. The combination of elements from a theory of objects and an original analysis using the tools of the algebra of logic in the interpretation of ancient texts has enabled Łukasiewicz to discern an essential idea according to which one can challenge the absoluteness attributed to PNC without sinking into triviality. It will be shown that his works contain, for logic, an outline for a new paradigm based on the disabsolutization of PNC, by dissociating it from the principle of explosion
APA, Harvard, Vancouver, ISO, and other styles
3

Bertrand, Aliénor. "Logique naturelle et principes de l'action humaine dans l'œuvre de Condillac." Paris 10, 1999. http://www.theses.fr/1999PA100009.

Full text
Abstract:
Cette thèse est une étude systématique et historique de la philosophie de Condillac ordonnée par l'analyse des conditions logiques de l'action humaine. Elle montre comment Condillac est venu à affirmer que les actions des corps organisés doivent être comprises à partir d'un principe logique, celui du plaisir, qui conditionne les opérations mentales. Dans la logique, Condillac soutient que l'invention des langues est conditionnée par une logique naturelle, qui est au principe de l'analyse des sensations et qui règle les actions des organismes vivants, dont les mouvements ne peuvent être expliqués par des lois strictement mécaniques mais il montre surtout que la logique propositionnelle modifie les principes et l'analyse des actions : l'agir humain n'est pas seulement réglé par la logique naturelle, mais par les principes qui définissent l'analyse verbale des actions, ces principes sont générés par les conditions logiques de la communication des êtres humains. En tant qu'êtres vivants et parlants. La génération des principes de l'action humaine à partir de la logique naturelle met donc en évidence de la rupture que l'invention de la parole instaure avec les principes de l'action animale : si le plaisir est la condition logique de l'analyse des actions, il n'est pas le principe de la moralité. L'invention de la parole subordonne l'analyse des actions à la correction de l'usage grammatical de la première personne, qui entraine un nouveau mode de régulation des actions. Elle définit les principes de l'action de personnes et non pas seulement d'organismes vivants. Ainsi la « théorie subjective de la valeur » du commerce et du gouvernement doit être prise pour ce qu'elle est : une analyse « psychologique » des actions humaines, qui affirme qu'une valeur est un jugement et non un objet. L'économie de Condillac évite l'erreur logique et la faute morale d'une confusion des principes du raisonnement économique et politique avec des normes sociales naturelles.
APA, Harvard, Vancouver, ISO, and other styles
4

Vezeanu, Ion. "Le principe d'identité : de quelques difficultés logiques, épistémiques et ontologiques de l'identité au XXème siècle." Grenoble 2, 2003. http://www.theses.fr/2003GRE29052.

Full text
Abstract:
L'identité a acquis au XXe siècle un statut déterminant. Trois niveaux conceptuels sous-tendent l'analyse des apories intrinsèques et irrémissibles de l'identité : logique, épistémique et ontologique. L'idée centrale consiste à affirmer que la relation d'identité est nichée au coeur des paradoxes logiques. Les difficultés soulevées par les principes leibniziens d'identité et par la propriété de réflexivité totale sont exportées dans les questions concernant la connaissance et dans le domaine ontologique de l'identité personnelle à travers le temps ou de la question du rapport corps-esprit. Toutefois, la notion d'identité ne peut être rejetée puisqu'elle est une pièce maîtresse de nos schémas conceptuels, de nos structures de langage et de pensée, de notre manière de concevoir le monde, voire de notre ontologie. Pierre d'achoppement de notre pensée et limite de notre rationalité, l'identité demeurera une des questions pérennes en philosophie, matière constante à reflexion.
APA, Harvard, Vancouver, ISO, and other styles
5

Mondello, Gérard. "Logique environnementale, logique économique : Etude par le contentieux des Installations Classées pour la Protection de l'Environnement (ICPE)." Phd thesis, Université de Nice Sophia-Antipolis, 2009. http://tel.archives-ouvertes.fr/tel-00727231.

Full text
Abstract:
La législation des installations classées pour la protection de l'environnement (ICPE) est généralement entendue comme un compromis entre la protection des intérêts économique et ceux de l'environnement. Cette thèse analyse la nature des termes de ce contrat social et, pour ce faire, elle étude des différents contentieux des ICPE, judiciaires (civil et pénal) et administratifs. Sont alors mises en évidence les difficultés structurelles pour réaliser cet objet qui tiennent aux manques d'une véritable représentation de l'environnement devant ces différentes juridictions. Cela en dépit des avancées législatives et constitutionnelles indéniables. Ce travail propose des pistes pour une réécriture de la police ICPE par une meilleure intégration des principes fondamentaux du développement durable, notamment, la précaution et la participation du public. Cette reformulation implique l'extension de la responsabilité sans faute à la précaution.
APA, Harvard, Vancouver, ISO, and other styles
6

Mondello, Gérard. "Logique environnementale, logique économique : étude par le contentieux des Installations Classées pour la Protection de l'Environnement (ICEP)." Phd thesis, Nice, 2009. http://www.theses.fr/2009NICE0006.

Full text
Abstract:
La législation des installations classées pour la protection de l’environnement (ICPE) est généralement entendue comme un compromis entre la protection des intérêts économique et ceux de l’environnement. Cette thèse analyse la nature des termes de ce contrat social et, pour ce faire, elle étude des différents contentieux des ICPE, judiciaires (civil et pénal) et administratifs. Sont alors mises en évidence les difficultés structurelles pour réaliser cet objet qui tiennent aux manques d’une véritable représentation de l’environnement devant ces différentes juridictions. Cela en dépit des avancées législatives et constitutionnelles indéniables. Ce travail propose des pistes pour une réécriture de la police ICPE par une meilleure intégration des principes fondamentaux du développement durable, notamment, la précaution et la participation du public. Cette reformulation implique l’extension de la responsabilité sans faute à la précaution
The French Law about installations (Classified Installation for Environment protection CIEP) is generally understood as a compromise between the protection of economical and environmental interests. This dissertation analyses the terms of this social contract, and, in this aim, we study the different CIEP litigations facing judicial (civil and criminal) and administrative Courts. Then, it is put into evidence the structural difficulties to achieve this goal. This is mainly due to the missing of an effective representation of the Environment in front of these Courts in spite of unquestionable progresses in Law and Constitution. This work makes proposals for the rewriting the CIEP Law by a more comprehensive integration of the fundamental roots of the sustainable development, particularly the precaution principle and the participation of the concerned people. This involves extending strict liability to the precaution
APA, Harvard, Vancouver, ISO, and other styles
7

Tousseul, Sylvain. "Les principes de la pensée ou les conditions d'impossibilité de l'expérience." Paris 10, 2009. http://www.theses.fr/2009PA100133.

Full text
Abstract:
Cette étude se propose de montrer que la légitimité d’une pensée se fonde sur des conditions spatiotemporelles qui sont propres à l’expérience de son auteur, ce qui implique que sa légitimité soit toujours singulière. En revanche, lorsqu’une pensée est illégitime, elle se fonde sur des conditions spatiotemporelles qui sont empiriquement impossibles, quel que soit son auteur, ce qui implique que son illégitimité soit toujours universelle. En effet, pour être pertinent, il est nécessaire d’écarter certaines impossibilités, ce qui revient à respecter des principes fondamentaux en suivant les logiques qui en sont issues. Mais dans la mesure où nous ne sommes pas conscients de ces impossibilités, cela signifie que nous suivons inconsciemment leur logique, de la même manière que les pulsions que nous ne pouvons pas réaliser suivent des destins dont nous ne sommes pas conscients. En réalité les deux constituent une seule et même chose, car le fait de ne pas pouvoir réaliser une pulsion entraîne une dynamique affective dont le mouvement constitue une logique. Et d’autre part, c’est précisément parce qu’on ne peut pas réaliser une expérience qu’on la désire d’autant plus, si bien que chaque impossibilité incarne un idéal. En montrant ainsi comment l’expérience conditionne notre façon de penser, notre travail constitue les fondements d’une nouvelle philosophie : l’immanental
This study aims to show that the legitimacy of a thought is based on spatiotemporal conditions that are unique to the experience of its author, meaning that its legitimacy is always singular. In contrast, when a thought is illegitimate, it is based on spatiotemporal conditions that are empirically impossible, whoever its author is, meaning that its illegitimacy is always universal. In fact, in order to relevant, we necessarily exclude certain impossibilities, that is we respect the fundamental principles by following the logics that derive from them. But since we are not aware of these impossibilities, it means that we unconsciously follow their logics, in the same way that the drives we can not achieve follow destinies we are not aware of. In reality both are a single thing, because the failure to achieve an drive causes an affective dynamic whose movement consists in a logic. And secondly, it is precisely because an experience can not be achieved that it is more desired, so that each impossibility represents an ideal. By showing how an experience determines our way of thinking, our work constitutes the foundation of a new philosophy: the immanental
APA, Harvard, Vancouver, ISO, and other styles
8

Quine, Willard Van Orman. "The logic of sequences : a generalization of "Principia mathematica /." New York : Garland pub, 1990. http://catalogue.bnf.fr/ark:/12148/cb35698378n.

Full text
APA, Harvard, Vancouver, ISO, and other styles
9

Fischer, Aurélie. "Apprentissage statistique non supervisé : grande dimension et courbes principales." Paris 6, 2011. http://www.theses.fr/2011PA066142.

Full text
Abstract:
Le contexte général de cette thèse est celui de l’apprentissage statistique non supervisé. Nous nous intéressons aux problématiques de la quantification et des courbes principales, que nous étudions dans deux parties successives. La première partie, qui concerne la quantification, se divise en trois chapitres. Le premier chapitre présente quelques propriétés théoriques de la quantification et du clustering dans un espace de Banach, en utilisant des divergences de Bregman comme notion de distance. Dans le deuxième chapitre, qui traite du clustering de courbes dans le cadre de l’industrie nucléaire, nous examinons une méthode de réduction de la dimension reposant sur la projection sur une base hilbertienne. Le troisième chapitre est dédié au choix du nombre de groupes en clustering. La seconde partie de la thèse, consacrée aux courbes principales, comporte deux chapitres. Ces courbes paramétrées passant « au milieu » d’un nuage de points peuvent être vues comme une généralisation non linéaire de l’Analyse en Composantes Principales. Comme il existe différents points de vue sur les courbes principales, le premier chapitre propose une synthèse bibliographique sur ce sujet. Selon la définition retenue, une courbe principale dépend de certains paramètres, comme la longueur ou la courbure, qui doivent être correctement déterminés pour obtenir une courbe reflétant précisément la forme des données sans pour autant relier tous les points. Dans le second chapitre, adoptant une définition basée sur la minimisation d’un critère empirique de type moindres carrés, nous considérons le problème du choix de ces paramètres sous l’angle de la sélection de modèle par pénalisation.
APA, Harvard, Vancouver, ISO, and other styles
10

Seymour, Michel. "Descriptions et référence : la théorie de la syntaxe logique de Principia Mathematica et ses perspectives contemporaines." Thèse, Université du Québec à Trois-Rivières, 1985. http://depot-e.uqtr.ca/6827/1/000559864.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
11

Dobrzynski, Anne Claire. "Violence à l'adolescence et maillage transdisciplinaire : enjeux, effets, logiques et perspectives." Thesis, Lyon, 2017. http://www.theses.fr/2017LYSE2117.

Full text
Abstract:
Cette thèse émerge de la clinique des agirs violents à l’adolescence à la Protection Judicaire de la Jeunesse et nous conduit au cœur de la clinique du conflit narcissique. Une large excursion sur le fil de huit accompagnements d’adolescents dans un cadre Pénal illustre cette clinique, support à la modélisation. L’enjeu inaugural de ces travaux de recherche est de modéliser un dispositif d’accompagnement de ces adolescents dont on dit fréquemment qu’ils n’ont pas de demande de soin psychique. La perspective est d’accueillir et de transformer le commettage, langage subjectif de l’agir violent, effet d’une détresse infantile, tissée à l’héritage transgénérationnel et aux remaniements psychiques propres à l’adolescence. Les racines, intrapsychique et intersubjective, du commettage sont envisagées sous trois prismes de lecture théorique : le paradoxe et les enjeux narcissiques ; la faillite de la fonction contenante ; le traumatisme et la dépression latente. Le focus théorique est ensuite mis sur les effets de la violence fondamentale (Bergeret) dans les liens adolescents-professionnels ; sur la professionnalité et les groupes institués. Les fragments bruts de la subjectivité de ces adolescents sont expulsés par et dans l’agir violent, sur et dans la scène psychique externe de l’accompagnement. Ils circulent dans un mouvement transféro-contre-transférentiel. On peut parler aussi d’identification projective, d’alliances inconscientes et de fonction phorique pour éclairer le processus de circulation des pans de subjectivité brute dans les trois espaces psychiques (Kaës). L’approche transdisciplinaire constitue l’essence du dispositif. Cette posture soutient l’éthique, la démocratie et l’humour, vecteur démocratique qui préserve le narcissisme. Cet état d’esprit et méthodologie est adossé aux trois opérateurs de reliance de la pensée complexe définie par le sociologue Edgar Morin : dialogique, boucle récursive et principe hologrammatique. Le dispositif de rencontre transdisciplinaire en tout petit groupe (RTPG) réunit l’adolescent, son éducateur référent et le psychologue de l’unité : les frontières se décloisonnent, au cœur de relations non hiérarchisées, tout en préservant notre singularité subjective. Cette posture prend en compte l’effet de la dilution des frontières intersubjectives et disciplinaires. Cette dilution correspond à la part trans-subjective (Wainrib) du lien, particulièrement dilatée dans les cliniques de l’agir violent et du conflit narcissique. Ces rencontres, co-construites avec l’adolescent (durée, fréquence), se déploient sous forme de conversations ordinaires (Winnicott). L’enjeu est de rassembler hic et nunc les pans de subjectivité brute que l’adolescent expulse hic et ubique sur la scène interinstitutionnelle. Soutenant l’idée que si l’adolescent est absent physiquement, il ne l’est pas subjectivement, la rencontre transdisciplinaire se déroule en présence ou l’absence de l’adolescent. Ce travail en l’absence répond au défaut de portage psychique dans les liens primaires de ces adolescents et impulse un travail de l’absence. La groupalité transdisciplinaire qui émerge au fil des rencontres a des effets de contenance externe, puis interne par introjection du lien au dispositif et finalement, d’apaisement des agirs violents et de relance du processus de subjectivation. Au cœur de ce dispositif, l’accompagnement de ces adolescents conduit à exporter l’esprit transdisciplinaire de la rencontre sur la scène interinstitutionnelle. La modélisation de la clinique permet de définir cette scène comme une scène psychique singulière et plurielle, propre à chaque adolescent, avec des groupes internes, des espaces interstitiels et une enveloppe. Les groupes internes interinstitutionnels (GII) constituent des organisateurs de la groupalité de la scène psychique interinstitutionnelle. Les GII sont des modalités de rencontre groupale qui émergent de l’intérieur de l’accompagnement des adolescents
This thesis emerges from violent acts clinical situations to Youth Judicial Protection Service, and leads us to narcissistic conflict clinical situations. A broader excursion into eight clinical supports of adolescents in penal framework illustrates this clinical situation, support of modelling.The inaugural issue on this research studies is to model a clinical support consultation for these adolescents, as are frequently heard that they haven’t a demand for mental care. The prospect is to receive and transform “commettage”, subjective langage of violent act, resulting of infant distress, weaved with transgenerational heritage and psychic readjustments characteristic of adolescence.Intrapsychic and intersubjective roots of “commettage” are looked at it from three perspectives : paradox and narcissistic issues ; disorder of containing function ; traumatism and latent depression.The theorical focus informs of the fundamental violence (Bergeret) effects to adolescents-professionals intersubjective links ; to professionalism and established groups.Subjectivity raw fragments of these adolescents are expelled through and in violent act, into extern psychic extern scene of clinical support. They move in a transferential and countertransferential movement. Projective identification, unconscious alliances and phoric function give an understanding of circulation process of subjectivity raw fragments into three psychic spaces (Kaës).Transdisciplinary approach constitutes a substance of clinical support. This clinical posture maintains ethic, democracy and humor, democratic factor that protect narcissism. This state of mind and methodology is couples to three reliance operators of complex thinking (Morin) : dialogic, recursive loop, hologram principle.Small group of transdisciplinary meeting (SGTM) gathers adolescent, educator and service psychologist : borders are decompartmentalized into not hierarchical relationships, but preserving subjective singularity. This clinical posture receives the effect of intersubjective and disciplinary borders dilution. This dilution ties with trans-subjective (Wainrib) share of link, particularly expanded into clinical situations of violent act and narcissistic conflict.These meetings, co-thought with adolescent (duration, frequency), unfold themselves in form of ordinary conversations (Winnicott). The issue is to bring together hic et nunc subjectivity raw fragments, expelled by the adolescent hic et ubique into interinstitutional scene.Supporting the idea that if the adolescent is absent physically, he isn’t subjectively, the transdisciplinary meeting takes place in the presence of or without the adolescent. This clinical support in the absence replies to psychic portage disorder into primary links, and drives a work of absence.Transdisplinary groupality, which emerges over meetings, has effects of extern containing, then intern containing through support link introjection. Finally, violent acts are appeased and subjectivation process can restart.Into this consultation, the clinical support of these adolescents can get to export of transdisciplinary state of mind into interinstitutional scene. Clinical modelling defines this scene as a psychic singular and plural scene, characteristic at each adolescent, with intern groups, interstitial scenes and envelope. The intern interinstitutionals groups (IIG) constitute the organizers of groupality of interinstitutional psychic scene. These IIG are groupal meetings that emerge inside clinical support. The SGTM is one of them. These IIG have articular function between interinstitutional, institutional et intrapsychic scenes and, function of metapsychic and metasocial guarantor (Kaës)
APA, Harvard, Vancouver, ISO, and other styles
12

Quine, W. V. "The logic of sequences a generalization of Principia mathematica /." New York : Garland Pub, 1990. http://catalog.hathitrust.org/api/volumes/oclc/20797392.html.

Full text
APA, Harvard, Vancouver, ISO, and other styles
13

Durand-Guerrier, Viviane. "Logique et raisonnement mathématique : défense et illustration de la pertinence du calcul des prédicats pour une approche didactique des difficultés liées à l'implication." Lyon 1, 1996. http://www.theses.fr/1996LYO10245.

Full text
Abstract:
Dans ce travail, nous soutenons la thèse selon laquelle la logique de référence pertinente pour analyser le raisonnement mathématique est le calcul des prédicats. Le chapitre 1 est consacre a l'étude de textes fondateurs (Aristote et les stoïciens ; Frege, Russell, Wittgenstein et Quine). Cet éclairage épistémologique permet de mettre en évidence les difficultés d'émergence du complexe d'implication et la polysémie du terme lui-même et d'affirmer que la logique est d'abord une théorie de l'inférence valide et, grâce a la quantification objectuelle, une théorie de la référence. Nous montrons au chapitre 2 que les arguments de Piaget selon lesquels la logique propositionnelle permet d'interpréter toute la logique quantificationnelle sont irrecevables, et nous illustrons par un exemple la pertinence du calcul des prédicats comme outil d'analyse des taches censées mesurer la rationalité des sujets. Le chapitre 3 est consacre a notre expérimentation, dans laquelle nous étudions a travers un questionnaire les conduites inferentielles des étudiants de doge scientifique première année arrivant a l'université en présence d'énoncés conditionnels affirmes. Cette étude confirme la grande sensibilité des résultats aux contenus, l'importance de l'état des connaissances mathématiques, et des phénomènes d'ambiguïté référentielle ; elle permet d'écarter, pour notre population, l'hypothèse selon laquelle de nombreux sujets traitent toutes les implications comme des équivalences. En outre, nous avons observe une utilisation importance du vocabulaire des modalités (le nécessaire, le non nécessaire et le possible). Au chapitre 4, nous examinons quelques arguments relatifs a la validité du principe du tiers exclu. Nous posons que pour un usage didactique nous devons accepter le tiers exclu tout en reconnaissant que certains énoncés n'ont pas de valeur de vérité. Ce chapitre sert d'introduction au chapitre 5 dans lequel nous proposons un cadre théorique pour interpréter les énoncés contingents. En nous appuyant sur le point de vue sémantique de la vérité dans les langages formalises, nous montrons que le calcul des prédicats permet de rendre compte des modalités du nécessaire, du possible et du contingent et nous introduisons la notion d'énoncé contingent pour un sujet donne a un instant donne. Nous utilisons ensuite ce cadre théorique pour revisiter différentes taches données en mathématiques notre travail illustre la thèse de quine selon laquelle la formalisation des énoncés dans la logique des prédicats contribue a la clarté conceptuelle ; nous rajoutons qu'elle permet en outre de réduire l'écart suppose entre la logique naturelle et la logique formelle
APA, Harvard, Vancouver, ISO, and other styles
14

Lengelo, Muhenya Junior-Placide. "De la conception empiriste du langage représentationnel au projet carnapien du réductionnisme logique : En quête d'une démarche empiriste libérale autour des années 1930." Thesis, Poitiers, 2016. http://www.theses.fr/2016POIT5002.

Full text
Abstract:
Une théorie empiriste de la connaissance affirme que le langage est doté de la capacité à « représenter » quelque chose d'autre que le langage lui-même. A la fin du XVIIe siècle, en effet, Locke et ses successeurs ont analysé empiriquement ce à quoi nos idées ressemblent et que les mots représentent mentalement. Autour des années trente, Schlick et ses camarades du Cercle de Vienne se servent des acquis linguistico-logiques de Frege, Russell et Wittgenstein pour analyser logiquement les propositions scientifiques, leur correspondance avec les états de choses qu'elles représentent. Avec eux, la philosophie analytique devra dorénavant ramener les problèmes de la connaissance au niveau de l'expérience langagière. C'est là que réside le caractère radical et réductionniste d'une démarche empiriste : les empiristes classiques ont fixé dans la perception la genèse chronologique de nos idées et nos pensées ; à leur tour, les Viennois déterminent le sens d'une proposition en la traduisant en propositions élémentaires, dites « Protokollsätze », qui renvoient directement au donné empirique. A la même période, Carnap se démarque des autres empiristes logiques en posant les problèmes du langage de la science en termes de reconstruction rationnelle des concepts et, cela, en introduisant de nouveaux concepts à partir de ceux déjà connus comme concepts de base phénoméniste (dans l'Aufbau en 1928) ou physicaliste (au cours des années trente). Tel est son réductionnisme logique qu'il renforce par la syntaxe logique. L'analyse logique ne porte pas sur le donné mais sur la proposition, et en particulier sur les propriétés formelles et des relations purement logiques qu'entretiennent les propositions dans un système. Carnap tente de libéraliser la démarche empiriste en assouplissant le critère de scientificité et, conformément à son « Principe de Tolérance », en adjoignant à l'ancrage empirique des questions de conventions pour la structure des propositions scientifiques. Il modère la critique viennoise de la métaphysique en attribuant à la philosophie, devenue « la logique de la science », la tâche de méthodes et formes adéquates pour la construction du langage de la science
An empiricist theory of knowledge argues that language has the capacity to represent something other than itself. Beginning from the end of the 17th century, Locke and his successors analysed empirically what our ideas are reflections of and what words represent in the mind. At the beginning of the 1930s, Schlick and his Vienna Circle colleagues exploited the logico-linguistic advances of Frege, Russell and Wittgenstein in the logical analysis of scientific propositions, i.e. their correspondence with the states of affairs they represent. Following their example, analytic philosophy would henceforth reduce problems of knowledge to the level of linguistic experience. This is where the radical and reductionist character of the empiricist perspective is to be found: the classical empiricists identified the chronological genesis of our ideas and thoughts in perception; the Vienna Circle philosophers in their turn determine the meaning of a proposition by translating it into elementary propositions or Protokollsätze, which reflect directly an empirical “given”. During the same period, Carnap distances himself from his fellow empiricists by formulating the formulating the problems of scientific language in terms of the rational reconstruction of concepts by introducing new concepts based on those already identified as fundamental from a phenomenalist (the Aufbau, 1928) or physicalist (during the 1930s) perspective. This is the logical reductionism that Carnap reinforces through logical syntax. For him, logical analysis is less concerned with the given than with the proposition, and in particular with the formal properties and purely logical relations between propositions within a system. Carnap attempts in this way to “liberalize” empiricism, both by rendering more flexible and open its claim to be scientific and, in conformity to his “Tolerance Principle”, in adding questions of conventions to the empirical grounding of scientific propositions. In attributing to philosophy, understood as “the logic of science”, the task of elaborating forms and methods adequate to the construction of the language of science, he thus moderates the Viennese critique of metaphysics
APA, Harvard, Vancouver, ISO, and other styles
15

Galinon, Henri. "Recherches sur la vérité : définition, élimination, déflation." Phd thesis, Université Panthéon-Sorbonne - Paris I, 2010. http://tel.archives-ouvertes.fr/tel-00527422.

Full text
Abstract:
La vérité, dit-on, est un des buts de la science. Mais quelle est la place de la notion de vérité elle-même dans le langage de la science ? Cette notion peut-elle être suffisamment clarifiée ? Et si oui, quelle peut être sa contribution au discours scientifique, pour quels usages la notion de vérité peut-elle être mobilisée ? Ce travail cherche à répondre à ces questions. Sa thèse principale est que la notion de vérité s'apparente à une notion logique. Cette idée s'inscrit dans un courant de réflexion contemporain sur la vérité appelé "déflationnisme", mais la formulation des thèses déflationnistes que nous proposons est nouvelle, comme sont nouveaux les arguments et les idées mises en œuvre pour l'étayer. Négativement, une critique détaillée d'une tentative influente de réfutation a priori des thèses déflationnistes est présentée. Positivement, nous caractérisons d'une part une classe critique d'affirmations mettant en jeu la notion de vérité comme ensemble de moyens d'expliciter des contenus déjà implicitement acceptés, et nous introduisons d'autre part des considérations et des outils permettant de comprendre le lien entre la thèse de la logicité de la notion de vérité et les thèses déflationnistes classiques relatives aux emplois légitimes de cette notion.
APA, Harvard, Vancouver, ISO, and other styles
16

Rieger, Schmidt Ana. "La primauté de l’étant et les premiers principes chez Gérard Odon." Thesis, Paris 4, 2014. http://www.theses.fr/2014PA040030.

Full text
Abstract:
Il s’agit d’une thèse sur le traité De duobus communissimis principiis scientiarum de Gérard Odon (vers 1320). Dans la première partie, nous faisons l’analyse du texte en nous centrant sur la notion d’« ens tertio adiacens ». Il s’agit de l’étant signifié par la totalité de la proposition et son vérifacteur ; il est univoquement comment à l’ens reale et à l’ens rationis et pour cette raison Odon l’identifie au sujet des principes de non-contradiction et du tiers exclu. L’ens tertio adiacens correspond aussi au premier objet adéquat de l’intellect et au sujet de la logique, entendue comme la science première. Dans la deuxième partie, nous plaçons Odon dans deux débats historiographiques : celui du réalisme propositionnel (à côté de Walter Burley, Grégoire de Rimini et Jean Wyclif) et celui des avancements de la doctrine des surtranscendantaux (à côté de Nicolas Bonet, François de la Marche et d’autres), lequel émerge de la distinction des deux sens de « res » chez Henri de Gand et ensuite chez Duns Scot
This thesis deals with Geraldus Odonis’ treatise De duobos communissimis principiis scientiarum (ca. 1320). In the first part, we analyze the text by focusing on the concept of "ens tertio adiacens". It is the being signified by the totality of the proposition and its truthmaker; it is univocally common to ens reale and ens rationis, for this reason Odonis identifies it to the subject of the principle of non-contradiction and the principle of excluded middle. The ens tertio adiacens also corresponds to the first adequate object of the intellect and to the subject of logic, which is understood as the first science. In the second part, we place Odonis in two historiographical debates: the propositional realism (alongside Walter Burley, Gregory of Rimini and John Wyclif) and the advancements of the doctrine of supertranscendentals (alongside Nicolas Bonetus, Francis of Marchia and others), which emerges from the distinction between the two senses of "res" in Henry of Ghent and in Duns Scotus
APA, Harvard, Vancouver, ISO, and other styles
17

Fischer, Sandrine. "Etude diagnostique de l'intuitivité des interfaces innovantes basée sur les principes de transfert et d'induction des schémas : application aux ordinateurs de bord automobiles." Toulouse 2, 2010. http://www.theses.fr/2010TOU20081.

Full text
Abstract:
L’intuitivité d'interfaces complexes est étudiée ici par le biais d'un protocole d'induction des schémas, en vertu de son interaction avec les facteurs de connaissance préalable. Le protocole d'induction est adapté au diagnostic d'interfaces multi-états et multi-attributs grâce au principe d'orientation des niveaux d'encodage. Nous obtenons deux patterns empiriques dominants dans la littérature de référence : un effet d'induction des schémas et un effet de transfert des connaissances préalables. L'induction des schémas reflète les états non intuitifs, les tâches non familières, mais également les états inaccessibles pour les utilisateurs rationnels, et les états accessibles pour les utilisateurs expérientiels. Le transfert caractérise quant à lui les états intuitifs et les tâches familières. Des patterns d'analyse inopérante et d'induction négative sont également rapportés, qui pointent des défauts liés à l'innovation et l'organisation des fonctionnalités interfacées. Le diagnostic de ces patterns permet, une fois intégré à un cadre de conception d'interfaces intuitives, d'orienter la révision d'une interface
The intuitive use of complex interfaces is apprehended by a schema induction protocol, due to its interaction with prior knowledge. The protocol is specified to account for multi-states interfaces and for their decomposition into separate informational attributes. We obtain two dominant empirical patterns that are schema induction, accounting for non intuitive states, non familiar tasks, as well as for accessible states for experiential users, and inaccessible states for rational ones, and transfer, accounting for familiar tasks and intuitive states. Patterns of inoperant analysis and negative induction effect are also obtained that justify the diagnosing approach and its relevance in current frameworks for the design of intuitive interfaces
APA, Harvard, Vancouver, ISO, and other styles
18

Damlaci, Ferry Pinar. "La narration classique dans le cinéma turc (1980-2000) : prémisses pour une étude structurale de la logique narrative et des principales figures héroïques." Paris 1, 2012. http://www.theses.fr/2012PA010521.

Full text
Abstract:
Le cinéma turc des années quatre-vingt et quatre-vingt-dix est, de manière générale et à sa façon, un cinéma classique. Par le cinéma classique, il faut entendre le style dominant propre au cinéma hollywoodien. Le classicisme hollywoodien se compose d'un conflit généré par l'action orientée vers un but, des personnages-motivés au centre du récit, des obstacles à surmonter, du rapport de causalité entre les faits et de la résolution du conflit. Par ailleurs, la particularité du style classique réside dans la description du personnage principal. Dans le cinéma turc, il s'agit d'un type de héros particulier que nous qualifions de justicier. Celui-ci se soumet à son existence (mauvaise fortune), alors que l'individu du « cinéma occidental», lui, construit son existence (futur à créer) La soumission au destin ne réduit pas le héros-justicier à l'inaction, au contraire il est la force dynamique principale de l'action du film. Selon la logique narrative, c'est-à-dire selon que le héros-justicier punit les méchants ou remédie à la situation, nous pouvons grouper les films turcs de notre corpus sous deux réseaux actionnels : le premier généré par le principe de « punition» et le deuxième par le principe de « réparation », Cette logique narrative fait naître le mythe du « surhomme», entre autres. L'étude des mythes véhiculés par le cinéma nécessite qu'on s'attache à la fiction et à ses thématiques qui dénoncent l'imaginaire social et les mentalités.
APA, Harvard, Vancouver, ISO, and other styles
19

Bozzo-Rey, Malik. "Le statut du principe d'utilité dans la philosophie politique et juridique de Jeremy Bentham." Paris 10, 2007. http://www.theses.fr/2007PA100105.

Full text
Abstract:
La philosophie de Jeremy Bentham est souvent réduite au principe d'utilité. Le propos de cette thèse est d'interroger son statut dans la philosophie politique et juridique de Jeremy Bentham. Notre démarche consiste donc à reconstruire la pensée benthamienne en partant de sa volonté réformatrice du langage du droit anglais que l'on peut comprendre comme un mécanisme de démystification. Ceci fera clairement apparaître que la question des fictions joue un rôle central et qu'il est nécessaire d'en construire la positivité pour élaborer une théorie du droit. Elle s'appuie sur une nouvelle définition du mot loi comme expression de la volonté du souverain. Elle permet de créer une nouvelle logique : la logique de la volonté dont nous montrerons qu'elle peut être constituée en logique déontique. Associée à d'autres outils dans les mains du législateur, elle permet de penser le droit comme système de contrôle social. Cette pensée est possible, notamment à travers le concept de force de la loi qui permet de réintroduire le principe d'utilité dans la réflexion benthamienne. Le législateur devra ainsi utiliser la punition pour agir sur les motifs de l'action de ses sujets et la loi devient alors un véritable guide pour l'action des sujets. Cependant, devons-nous en conclure que le calcul utilitariste est le seul outil à disposition de l'individu pour élaborer une raisonnement pratique et décider s'il doit ou non respecter la loi ? Nous pensons que le calcul utilitariste est un élément du méta-raisonnement pratique qui intègre également un calcul déontique. La philosophie benthamienne doit donc être repensée à la lumière des relations dynamiques entre fiction, logique et utilité
Jeremy Bentham's philosophy is often reduced to the principle of utility. This thesis wishes to challenge the status of the principle of utility in Jeremy Bentham's political and legal philosophy. So, our approach consists in a reconstruction of Bentham's thought from his will of reform, particularly of English legal language, which can be understood as a demystification mechanism. Then we will see the main part that can be played by the theory of fictions. It is necessary for Bentham to build a positive concept of fictions if he wants to elaborate a legal theory. It is based on a new and wider comprehension of the meaning of of what a law is. It is defined as the expression of sovereign's will. It allows to introduce a new logic: the logic of the will and we demonstrate it can be a deontic logic. Together with other tools in the hands of a legislator, it permits to construe law as a social system of control. We can claim this, thanks to the concept of force of a law. Thanks to it, Bentham reintroduces the principle of utility in his thought. The legislator has to use punishment to influence his subjects' agency, therefore law becomes a true guide for his subjects. But must we conclude that utilitarian calculus is the only tool on the part of the individual bound by law to decide if he is obliged to abide by the law, or not? We think that utilitarian calculus is only one aspect of a practical meta-reasoning, the other being the deontic calculus. We must rethink Bentham's philosophy through the idea of dynamic relationships between fiction, logic and utility
APA, Harvard, Vancouver, ISO, and other styles
20

Seban, Pierrot. "L’aporie du passage : Zénon d’Élée et le principe d’achevabilité." Thesis, Paris 10, 2018. http://www.theses.fr/2018PA100149/document.

Full text
Abstract:
Nous reconsidérons les arguments de Zénon d’Élée dits de l’« Achille » et de la « Dichotomie », en réunissant les perspectives de plusieurs disciplines, dont l’histoire de la philosophie ancienne, l’histoire et la philosophie des mathématiques, et la philosophie du temps. Nous soutenons que les réponses ordinairement données à ces arguments au XXe siècle, d’après lesquelles la mathématique moderne nous donne les moyens de dissoudre l’aporie, sont erronées et s’accompagnent d’une vue faussée sur le problème originel, notamment sur le concept d’infini qu’il implique. Dans la première partie, nous étudions les sources sur Zénon et sur son contexte de réception, pour établir que l’infini est chez lui second par rapport à l’idée d’inachevabilité, qui découle d’un mode de raisonnement nouveau qu’on peut nommer « itératif indéfini ». Nous examinons comment Zénon a utilisé ce raisonnement dans l’élaboration d’apories dialectiques, et comment l’ensemble des systèmes antiques étaient susceptibles de résoudre ces dernières. Dans la seconde partie, nous défendons l’aporie zénonienne du mouvement. Nous montrons qu’elle repose sur un principe que nous nommons « principe d’achevabilité », lui-même ancré dans notre intuition temporelle du passage. À travers la considération de la littérature sur les « supertasks », des problèmes concernant la réalité et la nature du temps, des différents concepts d’infini, et de la réflexion métamathématique, nous montrons à la fois pourquoi les théories de l’infini mathématique sont, de fait, la seule raison conduisant à rejeter le principe d’achevabilité, et pourquoi elles ne sont pas, de droit, en mesure de justifier ce rejet
We reconsider Zeno of Elea’s arguments known as “Achilles” and the “Dichotomy”, bringing together perspectives from several disciplines, including the history of ancient philosophy, the history and philosophy of mathematics and the philosophy of time. We contend that the usual contemporary answers to these arguments – according to which modern mathematics allow us to dissolve the aporia – are wrong, and carry a false view of the original problem, especially of the concept of infinity it implies. In the first part of the dissertation, we study the sources relevant to Zeno and his arguments’ reception context, in order to establish that Zeno’s infinite is dependant upon an idea of unachievability, acquired through to a new mode of reasoning that we call “indefinite iterative”. We examine the ways Zeno used this mode of reasoning in order to design dialectical aporias, and how ancient philosophical systems were capable of solving them. In the second part, we vindicate Zeno’s aporia of motion. We show that it rests on what we call “the achievability principle”, that itself is anchored in our intuition of passage. Through the consideration of problems relevant to so-called ‘supertasks’, to the reality and the nature of time, to the notion of infinity and to the metamathematical debate, we show, at the same time, how mathematical theories of the infinite are the only de facto reason to deny the achievability principle, and how they cannot, de jure, justify such a denial
APA, Harvard, Vancouver, ISO, and other styles
21

De, Rancourt Noé. "Théorie de Ramsey sans principe des tiroirs et applications à la preuve de dichotomies d'espaces de Banach." Thesis, Sorbonne Paris Cité, 2018. http://www.theses.fr/2018USPCC208/document.

Full text
Abstract:
Dans les années 90, Gowers démontre un théorème de type Ramsey pour les bloc-suites dans les espaces de Banach, afin de prouver deux dichotomies d'espaces de Banach. Ce théorème, contrairement à la plupart des résultats de type Ramsey en dimension infinie, ne repose pas sur un principe des tiroirs, et en conséquence, sa formulation doit faire appel à des jeux. Dans une première partie de cette thèse, nous développons un formalisme abstrait pour la théorie de Ramsey en dimension infinie avec et sans principe des tiroirs, et nous démontrons dans celui-ci une version abstraite du théorème de Gowers, duquel on peut déduire à la fois le théorème de Mathias-Silver et celui de Gowers. On en donne à la fois une version exacte dans les espaces dénombrables, et une version approximative dans les espaces métriques séparables. On démontre également le principe de Ramsey adverse, un résultat généralisant à la fois le théorème de Gowers abstrait et la détermination borélienne des jeux dénombrables. On étudie aussi les limitations de ces résultats et leurs généralisations possibles sous des hypothèses supplémentaires de théorie des ensembles.Dans une seconde partie, nous appliquons les résultats précédents à la preuve de deux dichotomies d'espaces de Banach. Ces dichotomies ont une forme similaire à celles de Gowers, mais sont Hilbert-évitantes : elles assurent que le sous-espace obtenu n'est pas isomorphe à un espace de Hilbert. Ces dichotomies sont une nouvelle étape vers la résolution d'une question de Ferenczi et Rosendal, demandant si un espace de Banach séparable non-isomorphe à un espace de Hilbert possède nécessairement un grand nombre de sous-espaces, à isomorphisme près
In the 90's, Gowers proves a Ramsey-type theorem for block-sequences in Banach spaces, in order to show two Banach-space dichotomies. Unlike most infinite-dimensional Ramsey-type results, this theorem does not rely on a pigeonhole principle, and therefore it has to have a partially game-theoretical formulation. In a first part of this thesis, we develop an abstract formalism for Ramsey theory with and without pigeonhole principle, and we prove in it an abstract version of Gowers' theorem, from which both Mathias-Silver's theorem and Gowers' theorem can be deduced. We give both an exact version of this theorem in countable spaces, and an approximate version of it in separable metric spaces. We also prove the adversarial Ramsey principle, a result generalising both the abstract Gowers' theorem and Borel determinacy of countable games. We also study the limitations of these results and their possible generalisations under additional set-theoretical hypotheses. In a second part, we apply the latter results to the proof of two Banach-space dichotomies. These dichotomies are similar to Gowers' ones, but are Hilbert-avoiding, that is, they ensure that the subspace they give is not isomorphic to a Hilbert space. These dichotomies are a new step towards the solution of a question asked by Ferenczi and Rosendal, asking whether a separable Banach space non-isomorphic to a Hilbert space necessarily contains a large number of subspaces, up to isomorphism
APA, Harvard, Vancouver, ISO, and other styles
22

Lachance, Geneviève. "La conception platonicienne de la contradiction." Thesis, Paris 4, 2015. http://www.theses.fr/2015PA040023.

Full text
Abstract:
Cette thèse se rapporte à la notion de contradiction, entendue en son sens logique ou formel. Plus précisément, elle vise à dégager une conception de la contradiction chez un philosophe qui, du point de vue chronologique, précède l’avènement de la syllogistique et de la logique : Platon. À partir de l’examen des dialogues réfutatifs de Platon, il s’agira de mettre en lumière la forme des propositions contradictoires, de déterminer la terminologie et les métaphores utilisées par Platon pour nommer et décrire la contradiction et d’évaluer le contexte dans lequel avait lieu la réflexion platonicienne. L’analyse révélera que Platon se faisait une idée somme toute assez précise de la contradiction logique et qu’il a même eu une influence sur Aristote lorsque ce dernier élabora son célèbre principe de non-contradiction
This thesis examines the notion of contradiction understood in its logical or formal sense. Specifically, it seeks to study that notion in a philosopher who, chronologically speaking, precedes the advent of syllogistic or logic: Plato. Based on an analysis of Plato’s refutative dialogues, this thesis will determine the form given by Plato to contradictory propositions, unveil the terminology and metaphors used by Plato to name and describe contradictions and evaluate the context in which Plato reflected upon contradiction. The analysis will reveal that Plato had a very clear idea of what is a logical contradiction and that he even had an influence on Aristotle when the latter defined his famous principle of non-contradiction
APA, Harvard, Vancouver, ISO, and other styles
23

Marzal, Yetano Antonio. "La dynamique du principe de proportionnalité : essai dans le contexte des libertés de circulation du droit de l'Union européenne." Thesis, Paris 1, 2013. http://www.theses.fr/2013PA010305/document.

Full text
Abstract:
D'apparence banale, le principe de proportionnalité signifie en réalité un bouleversement profond du droit. L'importance de ce développement, ainsi que le retentissement de ce principe partout dans le monde, explique l'intérêt considérable que suscite cette question dans la littérature récente. Cependant, il n'est pas commun d'analyser ce principe dans un contexte particulier, en tant que manifestation d'une culture spécifique. Cette thèse entreprend une telle analyse dans le contexte de l'Union européenne, qui s'avère à maints égards paradigmatique, à partir d'un examen du raisonnement de la Cour de justice dans ses décisions en application des libertés de circulation. Cet examen permet, d'un côté, de prendre acte de l'ampleur du potentiel transformateur du principe de proportionnalité sur les plans formel, matériel et institutionnel. En effet, ce principe ayant été conçu par la Cour comme une évaluation de l'efficience des mesures étatiques, les implications sont lourdes à l'égard de la forme de raisonnement employée par la Cour, la fonction des libertés de circulation et enfin la répartition de compétences entre l'Union et les Etats membres. D'un autre côté, le principe de proportionnalité s'avère également un miroir particulièrement apte à refléter les particularités de la culture juridique de l'Union, au sein de laquelle un discours de nature technocratique se montre prévalent
Despite its apparent innocuousness, the principle of proportionality actually brings about a profound transformation of the law. The importance of this development, as well as the spread of this principle throughout the world, accounts for the considerable interest that this issue has raised in recent scholarship. However, it is uncommon to analyze this principle within a specific context, as a manifestation of a particular culture. This thesis embarks on such an analysis within the context of the European Union, which would seem paradigmatic, by examining the reasoning of the European Court of Justice in its judgments applying the freedoms of circulation. This examination will make it possible, on the one hand, to take cognizance of the potential for transformation of the principle of proportionality at a formal, substantial and institutional level. lndeed, this principle having been conceived by the Court as an evaluation of efficiency of State measures, the implications are significant with regards to the form of reasoning employed by the Court, the function of the freedoms of circulation and finally the distribution of competence between the Union and the Member States. On the other hand, the principle of proportionality becomes a particularly appropriate mirror for reflecting the specific characteristics of the legal culture of the European Union, within which a technocratic discourse appears prevalent
APA, Harvard, Vancouver, ISO, and other styles
24

Imbert, Cyrille. "L'opacité intrinsèque de la nature : théories connues, phénomènes difficiles à expliquer et limites de la science." Paris 1, 2008. http://www.theses.fr/2008PA010703.

Full text
Abstract:
Les caractérisations des limites de la science se font traditionnellement en exhibant des résultats d'impossibilite, comme le premier théorème d'incomplétude de Gödel ou le principe d'incertitude de Heisenberg. On obtient alors une notion absolue de limite a ce qu'il est possible de connaître, valable même pour une créature douée de capacités de calcul infinies. Cette limite est néanmoins trop large car, même si nous pouvons dorénavant accroître nos capacités de calcul en développant nos ordinateurs, nous ne possédons jamais que des capacités finies. J'essaye dans cette thèse de montrer qu'il existe des limites absolues ace qu'il est possible de connaître en pratique au moyen de ressources finies et qu'il y a des contraintes absolues a l'extension de ce domaine qui est permise par I'accroissement de notre savoir et de nos ressources en calcul. Par là-même, je propose une caractérisation dynamique de l'évolution du domaine du savoir potentiel.
APA, Harvard, Vancouver, ISO, and other styles
25

Pamart, Pierre-Yves. "Contrôle des décollements en boucle fermée." Phd thesis, Université Pierre et Marie Curie - Paris VI, 2011. http://tel.archives-ouvertes.fr/tel-00659979.

Full text
Abstract:
La politique européenne recommande aux industriels de l'aéronautique de concevoir des aéronefs capables de proposer une réduction de 50% du bruit perçu, de 50% de la consommation et de 80% des émissions de gaz NOx d'ici 2020. Les ingénieurs sont donc amenés à envisager des solutions innovantes basées sur le contrôle des écoulements, en particulier celui des décollements puisqu'ils ont généralement des effets délétères sur les performances aérodynamiques. Les travaux présentés dans ce mémoire sont dédiés au contrôle en boucle fermée du décollement d'une rampe arrondie par un jet synthétique réglable en fréquence et en amplitude. Le mémoire s'articule autour de deux axes principaux. Le premier axe a permis d'étudier la réponse du décollement à une perturbation périodique par simulations numériques de type LES afin de poursuivre la compréhension de la phy- sique impliquée dans le contrôle et de définir des objectifs de contrôle. Les fréquences et amplitudes optimales au regard de différents critères ont ainsi été identifiées et analysées. Le second axe a été consacré au contrôle en boucle fermée de la réponse quasi-statique du système par l'application de stratégies de régulations PID, extremums-seekings optimisés et logique floue. Leur conception a nécessité l'identification d'un modèle boîte-noire non-linéaire NARX. Les algorithmes non-linéaires, en particulier celui par logique floue, se sont montrés particulièrement performants. La démarche a été validée grâce à une application en temps réel d'une régulation extremum-seeking sur simulation RANS instationnaire.
APA, Harvard, Vancouver, ISO, and other styles
26

Koehl, Ludovic Zeng Xianyi. "Optimisation de la qualité et du confort des produits textiles par exploitation de données physiques et de la connaissance humaine." Villeneuve d'Ascq : Université des sciences et technologies de Lille, 2007. https://iris.univ-lille1.fr/dspace/handle/1908/1014.

Full text
Abstract:
Reproduction de : Habilitation à diriger des recherches : Sciences physiques. Automatique et informatique industrielle : Lille 1 : 2006.
N° d'ordre (Lille 1) : 545. Titre provenant de la page de titre du document numérisé. Bibliogr. p. 82-85. Liste des publications et communications.
APA, Harvard, Vancouver, ISO, and other styles
27

Galicia, Auyón Jorge Armando. "Revisiting Data Partitioning for Scalable RDF Graph Processing Combining Graph Exploration and Fragmentation for RDF Processing Query Optimization for Large Scale Clustered RDF Data RDFPart- Suite: Bridging Physical and Logical RDF Partitioning. Reverse Partitioning for SPARQL Queries: Principles and Performance Analysis. ShouldWe Be Afraid of Querying Billions of Triples in a Graph-Based Centralized System? EXGRAF: Exploration et Fragmentation de Graphes au Service du Traitement Scalable de Requˆetes RDF." Thesis, Chasseneuil-du-Poitou, Ecole nationale supérieure de mécanique et d'aérotechnique, 2021. http://www.theses.fr/2021ESMA0001.

Full text
Abstract:
Le Resource Description Framework (RDF) et SPARQL sont des standards très populaires basés sur des graphes initialement conçus pour représenter et interroger des informations sur le Web. La flexibilité offerte par RDF a motivé son utilisation dans d'autres domaines. Aujourd'hui les jeux de données RDF sont d'excellentes sources d'information. Ils rassemblent des milliards de triplets dans des Knowledge Graphs qui doivent être stockés et exploités efficacement. La première génération de systèmes RDF a été construite sur des bases de données relationnelles traditionnelles. Malheureusement, les performances de ces systèmes se dégradent rapidement car le modèle relationnel ne convient pas au traitement des données RDF intrinsèquement représentées sous forme de graphe. Les systèmes RDF natifs et distribués cherchent à surmonter cette limitation. Les premiers utilisent principalement l’indexation comme stratégie d'optimisation pour accélérer les requêtes. Les deuxièmes recourent au partitionnement des données. Dans le modèle relationnel, la représentation logique de la base de données est cruciale pour concevoir le partitionnement. La couche logique définissant le schéma explicite de la base de données offre un certain confort aux concepteurs. Cette couche leur permet de choisir manuellement ou automatiquement, via des assistants automatiques, les tables et les attributs à partitionner. Aussi, elle préserve les concepts fondamentaux sur le partitionnement qui restent constants quel que soit le système de gestion de base de données. Ce schéma de conception n'est plus valide pour les bases de données RDF car le modèle RDF n'applique pas explicitement un schéma aux données. Ainsi, la couche logique est inexistante et le partitionnement des données dépend fortement des implémentations physiques des triplets sur le disque. Cette situation contribue à avoir des logiques de partitionnement différentes selon le système cible, ce qui est assez différent du point de vue du modèle relationnel. Dans cette thèse, nous promouvons l'idée d'effectuer le partitionnement de données au niveau logique dans les bases de données RDF. Ainsi, nous traitons d'abord le graphe de données RDF pour prendre en charge le partitionnement basé sur des entités logiques. Puis, nous proposons un framework pour effectuer les méthodes de partitionnement. Ce framework s'accompagne de procédures d'allocation et de distribution des données. Notre framework a été incorporé dans un système de traitement des données RDF centralisé (RDF_QDAG) et un système distribué (gStoreD). Nous avons mené plusieurs expériences qui ont confirmé la faisabilité de l'intégration de notre framework aux systèmes existants en améliorant leurs performances pour certaines requêtes. Enfin, nous concevons un ensemble d'outils de gestion du partitionnement de données RDF dont un langage de définition de données (DDL) et un assistant automatique de partitionnement
The Resource Description Framework (RDF) and SPARQL are very popular graph-based standards initially designed to represent and query information on the Web. The flexibility offered by RDF motivated its use in other domains and today RDF datasets are great information sources. They gather billions of triples in Knowledge Graphs that must be stored and efficiently exploited. The first generation of RDF systems was built on top of traditional relational databases. Unfortunately, the performance in these systems degrades rapidly as the relational model is not suitable for handling RDF data inherently represented as a graph. Native and distributed RDF systems seek to overcome this limitation. The former mainly use indexing as an optimization strategy to speed up queries. Distributed and parallel RDF systems resorts to data partitioning. The logical representation of the database is crucial to design data partitions in the relational model. The logical layer defining the explicit schema of the database provides a degree of comfort to database designers. It lets them choose manually or automatically (through advisors) the tables and attributes to be partitioned. Besides, it allows the partitioning core concepts to remain constant regardless of the database management system. This design scheme is no longer valid for RDF databases. Essentially, because the RDF model does not explicitly enforce a schema since RDF data is mostly implicitly structured. Thus, the logical layer is inexistent and data partitioning depends strongly on the physical implementations of the triples on disk. This situation contributes to have different partitioning logics depending on the target system, which is quite different from the relational model’s perspective. In this thesis, we promote the novel idea of performing data partitioning at the logical level in RDF databases. Thereby, we first process the RDF data graph to support logical entity-based partitioning. After this preparation, we present a partitioning framework built upon these logical structures. This framework is accompanied by data fragmentation, allocation, and distribution procedures. This framework was incorporated to a centralized (RDF_QDAG) and a distributed (gStoreD) triple store. We conducted several experiments that confirmed the feasibility of integrating our framework to existent systems improving their performances for certain queries. Finally, we design a set of RDF data partitioning management tools including a data definition language (DDL) and an automatic partitioning wizard
APA, Harvard, Vancouver, ISO, and other styles
28

Valdivia, Fuenzalida José Antonio. "La démonstration selon Thomas d’Aquin. Une étude sur la réception des Seconds Analytiques au XIIIème siècle." Thesis, Sorbonne université, 2019. http://www.theses.fr/2019SORUL004.

Full text
Abstract:
Le but de cette thèse est de reconstruire l’ensemble des questionnements théoriques qui sont présupposés par les auteurs qui participent de la réception des Seconds Analytiques au XIIIème siècle. Étant donné que la doctrine contenue dans cet ouvrage d’Aristote est difficile à interpréter de manière systématique, il est inévitable que sa réception progressive ait été guidée par des questionnements métaphysiques et gnoséologiques plus ou moins partagés par les auteurs mentionnés. Ma recherche est une tentative pour retracer ces questionnements, le but étant de proposer une reconstruction systématique de l’ensemble de la théorie contenue dans les commentaires des Seconds Analytiques de la période mentionnée. Cette reconstruction systématique offre une vision unifiée de l’ensemble des thèmes traités grâce à l’identification d’une question générale qui déterminerait l’orientation des questions spécifiques. L’auteur sur lequel la plupart des analyses sont concentrées est Thomas d’Aquin, mais le but étant de comprendre les questions qui guident la tradition des commentaires du XIIIème, Robert Grosseteste et Albert le Grand ont une place spéciale dans cette recherche. La thèse proposée est que la question précise qui est censée être répondue par ces commentaires est celle de savoir quelles doivent être les caractéristiques d’une connaissance parfaite. Par conséquent, les doctrines développées dans ces commentaires ne chercheraient pas à proposer une méthode de connaissance certaine de la réalité. Les propriétés d’une démonstration concernant sa forme et le contenu des propositions qui la composent se limiteraient à décrire un idéal de connaissance parfaite
The aim of this thesis is to reconstruct the set of theoretical questionings supposed by the authors who participate in Posterior Analytics’ reception during the 13th century. Considering that the doctrine contained in this Aristotle’s work is difficult to interpret in a systematical approach is inevitable that its progressive reception would have been guided by metaphysics and epistemological questionings, partially shared by these authors. The present research is an attempt to track down these questionings, with the objective of proposing a systematic reconstruction of the theory contained in the commentaries of the Posterior Analytics during that period. This systematic reconstruction offers a unified vision of the aspects assessed in this investigation. This due to the identification of a general question which would determine the orientation of specific ones. Thomas Aquinas is the author about whom most of the analyses are focused. But always considering the aim of comprehending questions which guide all this tradition of comments, two other comments have been studied: Robert Grosseteste and Alberto the Great. The thesis proposed is that the Posterior Analytics’ reception during the 13th century, reflects an attempt to answer the following question: which characteristics must a perfect knowledge possess? In accordance with this thesis, the doctrines developed in commentaries regarding this Aristotle’s work did not seek to propose a method of true knowledge of reality. The properties of a demonstration, regarding its shape and content of the propositions that compose it, would describe an ideal of perfect knowledge
APA, Harvard, Vancouver, ISO, and other styles
29

Valdivia, Fuenzalida José Antonio. "La démonstration selon Thomas d’Aquin. Une étude sur la réception des Seconds Analytiques au XIIIème siècle." Electronic Thesis or Diss., Sorbonne université, 2019. http://www.theses.fr/2019SORUL004.

Full text
Abstract:
Le but de cette thèse est de reconstruire l’ensemble des questionnements théoriques qui sont présupposés par les auteurs qui participent de la réception des Seconds Analytiques au XIIIème siècle. Étant donné que la doctrine contenue dans cet ouvrage d’Aristote est difficile à interpréter de manière systématique, il est inévitable que sa réception progressive ait été guidée par des questionnements métaphysiques et gnoséologiques plus ou moins partagés par les auteurs mentionnés. Ma recherche est une tentative pour retracer ces questionnements, le but étant de proposer une reconstruction systématique de l’ensemble de la théorie contenue dans les commentaires des Seconds Analytiques de la période mentionnée. Cette reconstruction systématique offre une vision unifiée de l’ensemble des thèmes traités grâce à l’identification d’une question générale qui déterminerait l’orientation des questions spécifiques. L’auteur sur lequel la plupart des analyses sont concentrées est Thomas d’Aquin, mais le but étant de comprendre les questions qui guident la tradition des commentaires du XIIIème, Robert Grosseteste et Albert le Grand ont une place spéciale dans cette recherche. La thèse proposée est que la question précise qui est censée être répondue par ces commentaires est celle de savoir quelles doivent être les caractéristiques d’une connaissance parfaite. Par conséquent, les doctrines développées dans ces commentaires ne chercheraient pas à proposer une méthode de connaissance certaine de la réalité. Les propriétés d’une démonstration concernant sa forme et le contenu des propositions qui la composent se limiteraient à décrire un idéal de connaissance parfaite
The aim of this thesis is to reconstruct the set of theoretical questionings supposed by the authors who participate in Posterior Analytics’ reception during the 13th century. Considering that the doctrine contained in this Aristotle’s work is difficult to interpret in a systematical approach is inevitable that its progressive reception would have been guided by metaphysics and epistemological questionings, partially shared by these authors. The present research is an attempt to track down these questionings, with the objective of proposing a systematic reconstruction of the theory contained in the commentaries of the Posterior Analytics during that period. This systematic reconstruction offers a unified vision of the aspects assessed in this investigation. This due to the identification of a general question which would determine the orientation of specific ones. Thomas Aquinas is the author about whom most of the analyses are focused. But always considering the aim of comprehending questions which guide all this tradition of comments, two other comments have been studied: Robert Grosseteste and Alberto the Great. The thesis proposed is that the Posterior Analytics’ reception during the 13th century, reflects an attempt to answer the following question: which characteristics must a perfect knowledge possess? In accordance with this thesis, the doctrines developed in commentaries regarding this Aristotle’s work did not seek to propose a method of true knowledge of reality. The properties of a demonstration, regarding its shape and content of the propositions that compose it, would describe an ideal of perfect knowledge
APA, Harvard, Vancouver, ISO, and other styles
30

Al-Hamdani, Hayja. "Réexamen de la notion d'arbitraire linguistique. Définition et contribution à l'identification de sa problématique." Thesis, Lyon, École normale supérieure, 2013. http://www.theses.fr/2013ENSL0808.

Full text
Abstract:
Cette thèse jette la lumière sur la notion d'arbitraire linguistique qui, depuis les premières réflexions sur la nature du langage, ne cesse d'être, plus ou moins, un objet de débat: l'origine du langage est-elle humaine ou divine? Son statut est-il conventionnel ou naturel? La dénomination des choses est-elle fondée sur l'arbitraire humain ou sur sa raison? Par conséquent, le signe linguistique est-il arbitraire ou motivé? Ce débat s'étend depuis l'Antiquité jusqu'à nos jours, dans une proportion d'intensité variable en temps et en lieu. Mais dans tout cela, qu'entendons-nous au juste par arbitraire? Et pourquoi représente-t-il toujours une problématique?Dans ce contexte, nous avons conduit un travail qui parcourt l'histoire, de l'Antiquité à la période actuelle, pour voir comment la question de l'arbitraire a été traitée chez les savants. La globalité de cette étude permet de construire une idée du point de divergence qui fait de l'arbitraire une question autant soutenue que débattue par les savants. Ainsi, cette étude est conçue pour réexaminer la notion de l'arbitraire afin de pouvoir la définir et identifier sa problématique.Conduite dans une méthode de travail qui repose sur l'analyse logique et philosophique des textes, cette étude montre en conclusion que le problème de l'arbitraire réside dans l'ambiguïté de sa notion. Celle-ci est due à la multiplicité des sens qu'il peut renfermer, donc à la multiplicité de sa conception chez les philosophes et linguistes, mais aussi à la multiplicité des points de vue pour déterminer la partie concernée par l'arbitraire dans la théorie du signe. Autrement dit, c'est en terme de l'arbitraire des idées, qu'on peut parler de l'arbitraire du langage.La thèse finit par présenter une position sur le langage et l'arbitraire, construite sur deux questions: i) le fait qu'il existe des lois dans le langage qui gèrent son fonctionnement selon un système propre; ii) le fait qu'il existe un lien pertinent entre la pensée du groupe et sa langue
This thesis sheds light on the linguistic notion of arbitrariness, which, since the very first reflections on the nature of language, continues – to a greater or lesser extent – to be a subject of debate: is the origin of language human or divine? Is its status conventional or natural? Is the naming of things based on human arbitrariness or human reason? Consequently, is the linguistic sign arbitrary or motivated? This debate extends from antiquity to the present day, in a proportion of variable intensity in time and place. But in all this, what do we mean by arbitrary? And why has it always represented a problematic?In this context, we have conducted a survey which retraces the history of this notion from antiquity to the present day, to see how the question of arbitrariness has been treated by savants. The global nature of this study can enable the construction of an idea of the point of divergence which makes arbitrariness into a matter of such sustained and controversial debate among savants. Thus, this study was designed to review the concept of arbitrariness in order to identify and define the problem.This study has been conducted using a working method based on the logical and philosophical analysis of texts. It conclusively demonstrates that the problem of the arbitrary lies in the ambiguity of the concept. This is due to the multiplicity of meanings that it can contain, that is, the multiplicity of its conceptions among philosophers and linguists, but this is also due to the multiplicity of points of view applied to determining the part affected by the arbitrary within the theory of the sign. In other words, it is in terms of arbitrary ideas that we can speak of the arbitrariness of language.The thesis ends by presenting a position about language and arbitrariness, which has been constructed around two issues: i) the fact that there are laws in the language that manage its working according to an own system; ii) that there is a relevant connection between the thought of a group and its language
تلقي هذه الأطروحة الضوء على مفهوم الاعتباط اللغوي الذي ما انفك يكون بشكل او بآخر موضوعا للجدل منذ البدايات الأولى للتفكير في طبيعة اللغة : فهل إن أصل اللغة إنسانيّ أم إلهي؟ وهل أنّ تشريعها جاء بشكل اتفاقي أم طبيعي؟ هل جرت التسمية على أساس اعتباطية الإنسان ام على عقلانيته؟ وبالنتيجة فهل ان الإشارة اللغوية اعتباطية ام معللة؟ امتد هذا الجدل منذ العصور القديمة وحتى يومنا هذا بنسب متفاوتة بالشدة في الزمان والمكان. ولكن في كل هذا ، ما الذي نعنيه بالضبط بالاعتباط؟ ولماذا يمثل دائما إشكالية؟في هذا السياق أجرينا بحثا طاف التاريخ برمته منذ العصر القديم حتى يومنا هذا كي نتعرف كيف تمت معالجة هذا الموضوع عند علماء اللغة. ان شمولية هذا العمل تسمح بتكوين فكرة حول نقطة الخلاف الذي جعل من الاعتباط موضوعا قابلا للتأييد والرفض على حد سواء بين العلماء. وعليه فقد صممت هذه الدراسة لإعادة النظر في مفهوم الاعتباط من اجل تعريفه وتحديد اشكاليته.تتألف الأطروحة من أربعة أجزاء فصلت في سياق زمني ، ولكن رتبت على وفق التوزيع ألموضوعاتي. يتناول الجزء الأول مكونات الاعتباط كعناصر تعريفية ، وأنواع الاعتباط ، ويبحث الجزء الثاني في إشكالية الاعتباط من خلال دراسة جذور فكره والحجج التي قدمت في هذا الطرح والطرح الذي عارضه ، الأمر الذي ترك المشكلة بلا حل، إضافة إلى المقترحات التي حاول من خلالها العلماء الخروج من المشكلة. وقد خصص الجزء الثالث حصرا حول ملامح الاعتباط عند سوسير ؛ في حين ناقش الجزء الرابع مفهوم الاعتباط في الفكر الحديث.أجريت هذه الدراسة على وفق منهج بحث استند على التحليل المنطقي والفلسفي للنصوص. وبينت بالنتيجة أن مشكلة الاعتباط تكمن في غموض مفهومه. ويعود ذلك إلى تعدد المعاني التي يمكن ان تحتويه المفردة، وبالتالي تعدد طريقة فهمه عند الفلاسفة وعلماء اللغة ، إضافة إلى تعدد وجهات النظر في تحديد الجانب المعني بالاعتباط في نظرية الإشارة اللغوية. وبعبارة أخرى، يمكننا القول إنّ اعتباطية اللغة تكمن في إطار اعتباطية الأفكار.تقدم الأطروحة في النهاية فكر المؤلف حول اللغة ومسألة الاعتباط اللغوي، وقد بناه على مسألتين: الأولى أن هناك قوانين في اللغة تدير حركته على وفق نظام خاص؛ والثانية أن هناك علاقة وثيقة بين فكر المجموعة ولغتها
APA, Harvard, Vancouver, ISO, and other styles
31

Poirier, Sébastien. "La logique et les logiques : la question du pluralisme." Thèse, 2011. http://hdl.handle.net/1866/6066.

Full text
Abstract:
Partant des travaux séminaux de Boole, Frege et Russell, le mémoire cherche à clarifier l‟enjeu du pluralisme logique à l‟ère de la prolifération des logiques non-classiques et des développements en informatique théorique et en théorie des preuves. Deux chapitres plus « historiques » sont à l‟ordre du jour : (1) le premier chapitre articule l‟absolutisme de Frege et Russell en prenant soin de montrer comment il exclut la possibilité d‟envisager des structures et des logiques alternatives; (2) le quatrième chapitre expose le chemin qui mena Carnap à l‟adoption de la méthode syntaxique et du principe de tolérance, pour ensuite dégager l‟instrumentalisme carnapien en philosophie de la Logique et des mathématiques. Passant par l‟analyse d‟une interprétation intuitive de la logique linéaire, le deuxième chapitre se tourne ensuite vers l‟établissement d‟une forme logico-mathématique de pluralisme logique à l‟aide de la théorie des relations d‟ordre et la théorie des catégories. Le troisième chapitre délimite le terrain de jeu des positions entourant le débat entre monisme et pluralisme puis offre un argument contre la thèse qui veut que le conflit entre logiques rivales soit apparent, le tout grâce à l‟utilisation du point de vue des logiques sous-structurelles. Enfin, le cinquième chapitre démontre que chacune des trois grandes approches au concept de conséquence logique (modèle-théorétique, preuve-théorétique et dialogique) forme un cadre suffisamment général pour établir un pluralisme. Bref, le mémoire est une défense du pluralisme logique.
Starting from the seminal work of Boole, Frege and Russell, the dissertation seeks to clarify the issue of logical pluralism in the era of the proliferation of non-classical logics and the developments in theoretical computer science and proof theory. Two “historical” chapters are scheduled: the first chapter articulate the absolutism of Frege and Russell, taking care to show how it condemns the possibility to consider alternative structures and logics; the fourth chapter describes the path that led Carnap from the adoption of the syntactic method to the formulation of the principle of tolerance, then goes on to display Carnap‟s instrumentalism in philosophy of Logic and mathematics. Opening with the analysis of an intuitive interpretation of linear logic, the second chapter then turns to the establishment of a form of logico-mathematical pluralism with the help of order theory and category theory. The third chapter delineates the playground of revisionism (philosophical positions surrounding the debate between monism and pluralism) and then provides an argument against the thesis that denies the reality of the conflict between rival logics, all this being done by adopting the substructural logic point of view. The fifth chapter shows that each of the three main approaches to the concept of logical consequence (model-theoretic, proof-theoretic and dialogical) supplies a framework sufficiently general to establish pluralism. In short, the dissertation is a defence of logical pluralism.
APA, Harvard, Vancouver, ISO, and other styles
32

Girard, Claire. "Logique du vague : survol des principales théories." Thèse, 2018. http://hdl.handle.net/1866/22171.

Full text
APA, Harvard, Vancouver, ISO, and other styles
33

Lachance, Genevieve. "La conception platonicienne de la contradiction." Thèse, 2014. http://hdl.handle.net/1866/12346.

Full text
Abstract:
Cette thèse se rapporte à la notion de contradiction, entendue en son sens logique ou formel. Plus précisément, elle vise à dégager une conception de la contradiction chez un philosophe qui, du point de vue chronologique, précède l’avènement de la syllogistique et de la logique : Platon. À partir de l’examen des dialogues réfutatifs de Platon, il s’agira de mettre en lumière la forme des propositions contradictoires, de déterminer la terminologie et les métaphores utilisées par Platon pour nommer et décrire la contradiction et d’évaluer le contexte dans lequel avait lieu la réflexion platonicienne. L’analyse révélera que Platon se faisait une idée somme toute assez précise de la contradiction logique et qu’il a même eu une influence sur Aristote lorsque ce dernier élabora son célèbre principe de non-contradiction.
This thesis examines the notion of contradiction understood in its logical or formal sense. Specifically, it seeks to study that notion in a philosopher who, chronologically speaking, precedes the advent of syllogistic or logic: Plato. Based on an analysis of Plato’s refutative dialogues, this thesis will determine the form given by Plato to contradictory propositions, unveil the terminology and metaphors used by Plato to name and describe contradictions and evaluate the context in which Plato reflected upon contradiction. The analysis will reveal that Plato had a very clear idea of what is a logical contradiction and that he even had an influence on Aristotle when the latter defined his famous principle of non-contradiction.
APA, Harvard, Vancouver, ISO, and other styles
34

Rieger, schmidt Ana. "La primauté de l’étant et les premiers principes chez Gérard Odon." Thesis, 2014. http://www.theses.fr/2014PA040030.

Full text
Abstract:
Il s’agit d’une thèse sur le traité De duobus communissimis principiis scientiarum de Gérard Odon (vers 1320). Dans la première partie, nous faisons l’analyse du texte en nous centrant sur la notion d’« ens tertio adiacens ». Il s’agit de l’étant signifié par la totalité de la proposition et son vérifacteur ; il est univoquement comment à l’ens reale et à l’ens rationis et pour cette raison Odon l’identifie au sujet des principes de non-contradiction et du tiers exclu. L’ens tertio adiacens correspond aussi au premier objet adéquat de l’intellect et au sujet de la logique, entendue comme la science première. Dans la deuxième partie, nous plaçons Odon dans deux débats historiographiques : celui du réalisme propositionnel (à côté de Walter Burley, Grégoire de Rimini et Jean Wyclif) et celui des avancements de la doctrine des surtranscendantaux (à côté de Nicolas Bonet, François de la Marche et d’autres), lequel émerge de la distinction des deux sens de « res » chez Henri de Gand et ensuite chez Duns Scot
This thesis deals with Geraldus Odonis’ treatise De duobos communissimis principiis scientiarum (ca. 1320). In the first part, we analyze the text by focusing on the concept of "ens tertio adiacens". It is the being signified by the totality of the proposition and its truthmaker; it is univocally common to ens reale and ens rationis, for this reason Odonis identifies it to the subject of the principle of non-contradiction and the principle of excluded middle. The ens tertio adiacens also corresponds to the first adequate object of the intellect and to the subject of logic, which is understood as the first science. In the second part, we place Odonis in two historiographical debates: the propositional realism (alongside Walter Burley, Gregory of Rimini and John Wyclif) and the advancements of the doctrine of supertranscendentals (alongside Nicolas Bonetus, Francis of Marchia and others), which emerges from the distinction between the two senses of "res" in Henry of Ghent and in Duns Scotus
APA, Harvard, Vancouver, ISO, and other styles
35

Anbarian, Mehrdad. "Identification and classification of geometrical parameeters related to foot pathologies." Thèse, 2005. http://hdl.handle.net/1866/15444.

Full text
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography