To see the other types of publications on this topic, follow the link: Théorie a priori d’objet.

Dissertations / Theses on the topic 'Théorie a priori d’objet'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 17 dissertations / theses for your research on the topic 'Théorie a priori d’objet.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Erten, Nur. "De l'οntοlοgie fοrmelle à la phénοménοlοgie. Une lecture husserlienne de la mathématisatiοn de la cοnnaissance." Electronic Thesis or Diss., Normandie, 2024. http://www.theses.fr/2024NORMC011.

Full text
Abstract:
L’objectif de ce travail est de situer l'ontologie formelle dans la phénoménologie husserlienne. Pour ce faire, nous proposons de faire une lecture de l'ontologie formelle qui se distingue d’une approche purement théorique ou mathématique, en la replaçant dans l’histoire de la philosophie telle que conçue par Edmund Husserl. Nous débutons par une analyse sur la mathématisation de la logique, ce qui nous conduit sous la dominance des mathématiques, à la genèse de l’idée de la théorie des théories, à une théorie d’objet sans objet. Ensuite, nous élargissons notre perspective pour examiner la mathématisation des sciences, surtout la mathématisation de la physique. En analysant la crise des sciences, nous mettons en lumière le rapport entre les sciences et leur rapport obligatoire avec la philosophie selon Husserl. À travers une lecture historique allant de Platon à Galilée, centrée sur l’ontologie formelle, nous montrons les critiques essentielles adressées aux sciences modernes par Husserl, et pourquoi, malgré leur développement et leur rigueur mathématique, les sciences empiriques, en particulier la physique, ne peuvent pas fonder une théorie de tout. Enfin, notre étude examine le rapport entre l’ontologie formelle et les ontologies matérielles. Nos analyses dans cette étude justifient la nécessité de la phénoménologie comme la science rigoureuse
The aim of this work is to situate formal ontology within Husserlian phenomenology. To this end, we propose a reading of formal ontology as distinct from a purely theoretical or mathematical approach, by placing it in the history of philosophy as conceived by Edmund Husserl. We begin with an analysis of the mathematization of logic, which leads us, under the dominance of mathematics, to the genesis of the idea of the theory of theories, to a theory of object without object. Next, we broaden our perspective to examine the mathematization of the sciences, especially the mathematization of physics. By analyzing the crisis of the sciences, we highlight the relationship between the sciences and their obligatory relationship with philosophy, according to Husserl. Through a historical reading from Plato to Galileo, centered on formal ontology, we show the essential criticisms addressed to modern sciences by Husserl, and why, despite their development and mathematical rigor, empirical sciences, particularly physics, cannot found a theory of everything. Finally, our study investigates the relationship between formal ontology and material ontologies. Our analyses in this study justify the necessity of phenomenology as the rigorous science
APA, Harvard, Vancouver, ISO, and other styles
2

Moussa, Ali Abdouramane. "Diagnostic sans modèle a priori." Electronic Thesis or Diss., Nancy 1, 2011. http://www.theses.fr/2011NAN10016.

Full text
Abstract:
Le diagnostic des systèmes automatiques consiste à remonter des symptômes perçus vers les causes. Les méthodes de diagnostic à base de modèle utilisent un modèle mathématique explicite du processus. Les synthèses modernes de génération de résidus demandent une connaissance très fine du système à commander ou à diagnostiquer. L'écriture des modèles les plus précis demande une compréhension en détail des mécanismes et utilise les lois de la Physique. Les modèles obtenus de cette façon font intervenir des paramètres physiques qui, par définition, sont mesurables par des expériences non nécessairement en rapport avec la façon d'utiliser le système. Cependant, dans certains cas pratiques, ces paramètres ne peuvent pas être évalués a priori. Par ailleurs, la fiabilité donnée par les modèles de connaissance est en général accompagnée par l'inconvénient d'une trop grande complexité. Ce travail contribue à développer une nouvelle approche algébrique et déterministe de diagnostic qui ne suppose pas l'existence a priori d'un modèle explicite du système et qui présente un nouveau point de vue basé sur la théorie des distributions et l'analyse du pseudospectre de faisceaux de matrices. Notre démarche s'inspire de certains outils et développements de la théorie de l'estimation algébrique courants en automatique mais très peu usuels en traitement du signal. Le principal atout de cette approche est qu'il est possible, sous certaines hypothèses, de détecter, localiser et identifier les défauts à l'aide des seules mesures de la commande et de la sortie sans avoir à identifier les paramètres du modèle
The fault diagnosis in automatic systems is to trace perceived symptoms to causes. Most of model-based methods are based on the concept of analytical redundancy. The analytical redundancy relations are equations derived from an analytical model, which admits as input only the measured variables. Other classes of model-based methods are based directly on the parameter estimate. The modern syntheses of residuals generation require very detailed knowledge of system to control or to diagnose. Writing the most accurate models require a deep understanding of mechanisms and uses law of physics. The models obtained this way are called knowledge-based models. They involve physical parameters which, by definition, are measurable by experiments which are not necessarily related to how to use the system. However, in some practical cases, these parameters can be evaluated a priori. Moreover, the reliability provided by the knowledge-based models is usually accompanied by the disadvantage of excessive complexity. These models may not be used in practice and we must often reduce the complexity. This work contributes to develop a new algebraic and deterministic approach of fault diagnosis, which is not based on an a priori explicit model of the process and presents a new perspective based on the theory of distributions and the pseudospectra analysis of matrix pencils. Our approach is based on certain tools and developments in the theory of algebraic estimation usual in automatic community but very unconventional in signal processing
APA, Harvard, Vancouver, ISO, and other styles
3

Moussa, Ali Abdouramane. "Diagnostic sans modèle a priori." Phd thesis, Université Henri Poincaré - Nancy I, 2011. http://tel.archives-ouvertes.fr/tel-00604090.

Full text
Abstract:
Ce travail contribue à développer une nouvelle approche algébrique et déterministe de diagnostic qui ne nécessite pas la connaissance a priori d'un modèle explicite du système. Il présente un nouveau point de vue basé sur la théorie des distributions et l'analyse du pseudospectre de faisceaux de matrices. Notre démarche s'inspire de certains outils et développements de la théorie de l'estimation algébrique courants en automatique et traitement du signal. Le principal atout de cette approche est qu'il est possible, sous certaines hypothèses, de détecter, localiser et identifier les défauts à l'aide des seules mesures de la commande et de la sortie sans avoir à estimer les paramètres du modèle. Nous considérons que les défauts actionneur et capteur sont modélisés par des signaux structurés. La méthode exploite le fait qu'un signal structuré satisfait une équation différentielle. La prise de décision est entièrement fondée sur l'évolution temporelle des estimations de certaines caractéristiques constantes des défauts. L'efficacité de l'approche présentée est illustrée au travers d'exemples académiques.
APA, Harvard, Vancouver, ISO, and other styles
4

Deroy, Xavier. "A priori des modèles d'innovation et contingence massive de l'innovation en sciences de gestion." Paris, CNAM, 2003. http://www.theses.fr/2003CNAM0434.

Full text
Abstract:
L'innovation est l'objet d'une attention renouvelée de la part d'entreprises soumises à une pression concurrentielle accrue. La démarche que nous avons adoptée a tout d'abord consisté à ordonner les principaux courants et concepts présents dans le champ de l'innovation. Nous l'avons fait dans une perspective socio-économique. Dans ce vaste ensemble, une préoccupation revient régulièrement. Elle concerne le rapport qu'entretiennent l'innovation et l'organisation. D'ailleurs la problématique de cette thèse s'y inscrit. L'innovation peut-elle être routinisée, c'est-à-dire gérée par l'organisation? A cette question, les modèles gestionnaires d'innovation répondent par l'affirmative. Ils peuvent être définis comme des ensembles de règles et d'orientations généralisantes relatives à la stratégie et au fonctionnement interne des organisations innovantes. Selon ces modèles l'innovation est prescriptible, généralisable et reproductible d'une entreprise à une autre via leur médiation. Nous distinguons ensuite trois types de modèles gestionnaires d'innovation: les modèles intégrateurs, les modèles statistiques et les modèles monographiques. Mais ces modèles sont fondés sur des a priori implicites et douteux. Ceux-ci portent sur la possibilité d'une reproduction mimétique de l'innovation, sur la capacité à modéliser l'action innovante et singulière et sur la neutralité scientifique du discours véhiculé par ces modèles. La remise en cause de ces a priori explique la faible efficacité des modèles d'innovation mais révèle aussi leur rôle politique. Ainsi, les cas que nous étudions illustrent des pratiques idiosyncrasiques de l'innovation. Ces entreprises innovantes se prêtent difficilement à l'imitation par l'intermédiaire de modèles, si l'on en s'en réfère à l'incapacité de leurs concurrents à les rattraper sur des périodes historiquement longues. Ces conclusions nous amènent à renouveler l'approche de l'innovation. Nous proposons de la concevoir comme un phénomène affecté de contingence massive. Sans être erronés, les principes généraux et réducteurs des modèles expliquent une proportion réduite de l'innovation conduite à l'intérieur de chaque organisation. Si innover consiste à établir de nouvelles relations ou à en modifier certaines, alors cet acte de connaissance est peu compatible avec l'anticipation prescriptive de la modélisation. Finalement, nous nous prononçons en faveur d'une approche historique et contextualisée de l'innovation conduite par les organisations. Des théories locales de l'innovation pourront alors être élaborées dans le cadre de monographies. Ainsi, à côté de la confirmation de certains traits communs, sera restituée la pluralité fondamentale des formes de l'innovation
This research first aims to clarify literature about innovation by combining sociological and economic approaches. One of the main questions which is disclosed is the potential conflict between innovation and organization. It is often thought that it is possible to organize innovation. Management models of innovations rely on this assumption. Three types of models can be distinguished: integrative, statistical and monographic model. But the core argument of this thesis is to show that models of innovation are rooted in three implicit questionable a priori: mimetism, modelization of innovating action and scientific neutrality of these models. Hence, we argue that innovation is the place of massive contingency, despite some common but unsufficient organizing principles of explanation. Innovation implies specific knowledge and ability to create new relationships. To better understand it, we recommend that researches about innovation aim to elaborate local theories adapted to specific contexts described by monographies
APA, Harvard, Vancouver, ISO, and other styles
5

Jacob, Laurent. "A priori structurés pour l'apprentissage supervisé en biologie computationnelle." Phd thesis, École Nationale Supérieure des Mines de Paris, 2009. http://pastel.archives-ouvertes.fr/pastel-00005743.

Full text
Abstract:
Les méthodes d'apprentissage supervisé sont utilisées pour construire des fonctions prédisant efficacement le comportement de nouvelles entités à partir de données observées. Elles sont de ce fait très utiles en biologie computationnelle, où elles permettent d'exploiter la quantité grandissante de données expérimentales disponible. Dans certains cas cependant, la quantité de données disponible n'est pas suffisante par rapport à la complexité du problème d'apprentissage. Heureusement ce type de problème mal posé n'est pas nouveau en statistiques. Une approche classique est d'utiliser des méthodes de régularisation ou de manière équivalente d'introduire un a priori sur la forme que la fonction devrait avoir. Dans cette thèse, nous proposons de nouvelles fonctions de régularisation basées sur la connaissance biologique de certains problèmes. Dans le contexte de la conception de vaccins ou de médicaments, nous montrons comment l'utilisation du fait que les cibles similaires lient des ligands similaires permet d'améliorer sensiblement les prédictions pour les cibles ayant peu ou n'ayant pas de ligands connus. Nous proposons également une fonction prenant en compte le fait que seuls certains groupes inconnus de cibles partagent leur comportement de liaison. Finalement, dans le cadre de la prédiction de métastase de tumeurs à partir de données d'expression, nous construisons une fonction de régularisation favorisant les estimateurs parcimonieux dont le support est une union de groupes de gènes potentiellement chevauchants définis a priori, ou un ensemble de gènes ayant tendance à être connectés sur un graphe défini a priori.
APA, Harvard, Vancouver, ISO, and other styles
6

Cucu, Graindorge Tatiana. "Contribution à une méthodologie d'évaluation à priori des projets de transport urbain durable." Thesis, Bordeaux 1, 2012. http://www.theses.fr/2012BOR14488/document.

Full text
Abstract:
L’objectif de ces travaux de proposer aux autorités locales un outil d’aide à la décision pour formaliser une démarche participative tout au long de la conception d’un projet de transport urbain durable, dans un contexte multicritères et multi acteurs. La méthodologie développée repose sur l’évaluation a priori des impacts d’un projet local, en impliquant les acteurs dès la phase de diagnostic. Cette phase permet d’identifier des groupes d’acteurs selon leur perception des phénomènes urbains, des interactions et des préférences déclarées d’évolution. Elle permet d’établir une liste d’indicateurs communs qui seront évalués. Le choix des alternatives à étudier est le résultat de l’application conjointe de techniques de transférabilité - fondées sur l’étude de projets développés dans d’autres villes - et de l’étude des préférences déclarées des usagers locaux. La probabilité d’utilisation du service s’évalue à l’aide d’un modèle comportemental agrégé qui intègre la perception floue et l’indécision des usagers devant une situation nouvelle. Les changements de comportement des usagers sont pris en compte à l’aide d’un indicateur de robustesse qui teste les effets des paramètres exogènes sur l’évolution de la probabilité d’utilisation du service. Un micro-simulateur de trafic permet d’évaluer les impacts des différents scénarii sur le trafic, l’environnement et le bien-être des citoyens sous la forme monétarisée, afin d’illustrer les coûts et les bénéfices indirects attendus de l’implantation du projet. Une solution de compromis est proposée : elle vise à fournir la solution qui contenterait au mieux l’ensemble des représentants des groupes d’acteurs - et non la solution optimale en termes d’impacts
The objective of this research is to provide to the local authorities a decision aid tool in order to formalize a participatory approach during the conception of a sustainable urban transport project, in a multi-criteria and multi-actors context. The methodology is based on the a priori evaluation of the impacts of a local project, involving stakeholders as soon as the diagnosis phase. This phase aims at identifying groups of actors according to their perception of urban phenomena, their interactions and their stated preferences of evolution. The diagnosis phase leads to the setting-up of a list of common indicators to be evaluated. The choice of alternatives to be studied is the result of the transferability techniques - based on the projects developed in other cities - and the stated preferences of local users. The probability of using the service is evaluated using an aggregated behavioral model that takes into account the fuzzy perception and the indecision of users in a new situation. Changes in the behaviour of the users are taken into account thanks to an indicator of robustness that tests the impact of exogenous parameters on the evolution of the probability of using a service. A traffic micro--simulator aims at assessing the impacts of the various scenarios on traffic, environment and the welfare of citizens– which is monetized. It illustrates the costs and indirect benefits expected with the implementation of project. A compromise solution is proposed: it aims at identifying an alternative that would best satisfy the representatives of the stakeholder groups – and not necessarily the optimal solution in terms of impacts
APA, Harvard, Vancouver, ISO, and other styles
7

Grosgeorge, Damien. "Segmentation par coupes de graphe avec a priori de forme Application à l'IRM cardiaque." Phd thesis, Université de Rouen, 2014. http://tel.archives-ouvertes.fr/tel-01006467.

Full text
Abstract:
Le contourage des ventricules cardiaques sur IRM est nécessaire à la détermination de la fonction contractile du cœur. Cette tâche est difficile, en particulier pour le ventricule droit (VD), due au flou aux frontières des cavités, aux irrégularités des intensités et à sa forme complexe et variable. Peu de travaux ont cependant été réalisés afin de résoudre cette problématique de segmentation. Dans ce but, nous avons proposé et développé deux méthodes de segmentation basées sur la méthode des coupes de graphe (GC), à laquelle nous avons incorporé des a priori de forme. La première méthode, semi-automatique, repose sur une carte d'a priori statistique créée à base d'Analyses en Composantes Principales et intégrée à la méthode des GC binaires. La seconde, automatique, permet la segmentation d'un ensemble d'objets par GC multi-labels à partir d'un modèle de forme probabiliste basé sur le recalage et la fusion d'atlas. Ces méthodes ont été évaluées sur une base importante d'IRM cardiaques, composée de 48 patients. Une comparaison aux méthodes de l'état de l'art pour cette application à travers le challenge de segmentation du VD MICCAI'12, que nous avons organisé, montre l'efficacité de nos méthodes.
APA, Harvard, Vancouver, ISO, and other styles
8

Zhou, Hao. "La chute du "triangle d'or" : apriorité, analyticité, nécessité : de l'équivalence à l'indépendance." Thesis, Paris 1, 2020. http://www.theses.fr/2020PA01H204.

Full text
Abstract:
Les trois concepts d’apriorité, d’analyticité et de nécessité, qui ont longtemps été considérés comme équivalents, constituent ce que l’on peut appeler le « triangle d’or » ou « triangle d’équivalence ». Or, la conception kantienne du synthétique a priori et les conceptions kripkéennes du contingent a priori et du nécessaire a posteriori représentent des critiques décisives contre ce triangle d’équivalence. Héritant, de manière critique, des idées révolutionnaires de Kant et de Kripke, un nouveau schéma épistémologique intitulé « sujet-connaissance-monde » est ici systématiquement construit. Ce schéma rend totalement caduc le triangle d’or. Les concepts d’apriorité, d’analyticité et de nécessité deviennent indépendants les uns des autres. On aboutit ainsi à un nouvel espace des catégories de la connaissance, issu du libre entre croisement des trois distinctions a priori-a posteriori, analytique-synthétique et nécessaire-contingent. Ces catégories de la connaissance, dont certaines sont nouvelles, s’appliquent aux sciences exclusivement et exhaustivement
The three concepts of apriority, analyticity and necessity, which have long been considered equivalent, constitute whatcould be called the “golden triangle” or “triangle of equivalence”. Yet, the Kantian conception of the synthetic a priori and the Kripkean conceptions of the contingent a priori and the necessary a posteriori represent decisive criticismsagainst this triangle of equivalence. Inheriting critically these revolutionary thoughts from Kant and Kripke, a newepistemological schema entitled “subject-knowledge-world” is here systematically constructed. This schema renders thegolden triangle totally obsolete. The concepts of apriority, analyticity and necessity become independent of each other.This leads to a new space of knowledge categories, resulting from the free intersecting of the three distinctions a priori-aposteriori, analytic-synthetic and necessary-contingent. These knowledge categories, some of which are new, apply to science exclusively and exhaustively
APA, Harvard, Vancouver, ISO, and other styles
9

Righi, Ali. "Sur l'estimation de densités prédictives et l'estimation d'un coût." Rouen, 2011. http://www.theses.fr/2011ROUES002.

Full text
Abstract:
Cette thèse est composée de deux parties. Dans la première partie, nous étudions l’estimation des densités prédictives, sous le coût de Kullback-Leibler, pour le modèle gaussien multidimensionnel de dimension p. Nous nous focalisons sur le lien qui existe entre ce problème d’estimation et l’estimation de la moyenne correspondante sous coût quadratique. Nous exhibons plusieurs résultats parallèles. Nous prouvons des résultats de minimaxité et d’amélioration des estimateurs sous contrainte pour la moyenne inconnue. Notamment, nous établissons, au travers deux méthodes, que la densité prédictive bayésienne associée à la loi a priori uniforme sur un convexe C domine la meilleure densité invariante sous la contrainte μ 2 C. Ceci constitue un résultat parallèle à celui de Hartigan en 2004 pour l’estimation de la moyenne sous coût quadratique. A la fin de cette partie, nous donnons des simulations numériques pour visualiser les gains réalisés par quelques nouveaux estimateurs proposés. Dans la seconde partie, pour le modèle gaussien de dimension p, nous traitons le problème de l’estimation du coût quadratique de l’estimateur standard de la moyenne (soit #0(X) = X). Nous proposons des estimateurs de coût bayésiens généralisés qui dominent l’estimateur standard du coût (soit #0(X) = p), en donnant des conditions suffisantes sur la loi a priori afin d’obtenir cette domination pour p # 5. Nous illustrons nos résultats par des exemples. Ensuite nous réalisons une étude technique et des simulations numériques du gain obtenu par un de nos estimateurs bayésiens généralisés proposés
This thesis is divided in two parts. In the first part, we investigate predictive density estimation for a multivariate Gaussian model under the Kullback-Leibler loss. We focus on the link with the problem of estimation of the mean under quadratic loss. We obtain several parallel results. We prove minimaxity and improved estimation results under restriction for the unknown mean. In particular, we show, via two different paths, that the Bayesian predictive density associated to the uniform prior on a convex C dominates the best invariant predictive density when μ 2 C. This is a parallel result to Hartigan’s result in 2004, for the estimation of the mean under quadratic loss. At the end of this part, we give numerical simulations to visualize the gain obtained by some of our new proposed estimators. In the second part, for the Gaussian model of dimension p, we treat the problem of estimating the loss of the standard estimator of the mean (that is, #0(X) = X). We give generalized Bayes estimators which dominate the unbiased estimator of loss (that is, #0(X) = p), through sufficient conditions for p # 5. Examples illustrate the theory. Then we carry on a technical study and numerical simulations on the gain reached by one of our proposed minimax generalized Bayes estimators of loss
APA, Harvard, Vancouver, ISO, and other styles
10

Garrido, Myriam. "Modélisation des évènements rares et estimation des quantiles extrêmes , méthodes de sélection de modèles pour les queues de distribution." Phd thesis, Université Joseph Fourier (Grenoble), 2002. http://tel.archives-ouvertes.fr/tel-00004666.

Full text
Abstract:
Cette thèse étudie la modélisation d'événements rares et l'estimation de quantiles extrêmes, à travers différents types de modèles et le choix de ces modèles. La théorie des valeurs extrêmes, et en particulier la méthode des excès (POT, Peaks Over Threshold), permettent une estimation non paramétrique, mais biaisée, des queues de distribution. Nous souhaitons donc utiliser des modèles paramétriques classiques. Cependant, ces modèles étant estimés et sélectionnés par des tests usuels à partir de l'échantillon complet, les résultats sont surtout influencés par les valeurs les plus probables de la variable. Nous proposons deux tests d'adéquation pour la queue de distribution, le test ET (Exponential Tail) et le test GPD (Generalised Pareto Distribution), pour sélectionner, par comparaison avec la méthode POT, les modèles produisant de bonnes estimations de la queue de distribution. Lorsqu'on souhaite reconstituer la loi dont sont issues les observations aussi bien dans la région centrale que dans la région extrême, on applique d'abord à un ensemble de modèles un test usuel (d'adéquation aux valeurs les plus probables), puis un test d'adéquation de la queue de distribution. Si aucune loi n'est acceptée par les deux types de tests, nous proposons une procédure de régularisation bayésienne qui, à partir d'un modèle adapté aux valeurs les plus probables, permet d'améliorer l'adéquation extrême grâce à un avis d'expert sur la queue de distribution. Enfin, si on revient à la méthode POT, il faut en réduire le biais d'estimation, notamment pour l'estimation des quantiles extrêmes. Cette méthode étant fondée sur l'approximation de la loi des excès au-delà d'un seuil par une loi GPD, nous cherchons à mieux en estimer les paramètres. L'inférence bayésienne sur les paramètres de la loi GPD permet de réduire le biais d'estimation des quantiles extrêmes par la méthode POT, en particulier quand on introduit un avis d'expert sur la queue de distribution.
APA, Harvard, Vancouver, ISO, and other styles
11

BONNAILLIE, Virginie. "Analyse mathématique de la supraconductivité dans un domaine à coins: méthodes semi-classiques et numériques." Phd thesis, Université Paris Sud - Paris XI, 2003. http://tel.archives-ouvertes.fr/tel-00005430.

Full text
Abstract:
La théorie de la supraconductivité, modélisée par Ginzburg et Landau, motive les travaux relatifs à l'opérateur de Schrödinger avec champ magnétique. L'objet de cette thèse est d'analyser l'influence de la géométrie du domaine sur l'apparition de la supraconductivité en étendant les résultats existant pour des domaines réguliers à des domaines à coins. L'analyse semi-classique conduit à étudier trois opérateurs modèles : la réalisation de Neumann de l'opérateur de Schrödinger avec champ magnétique constant sur le plan, le demi-plan et les secteurs angulaires. L'étude des deux premiers est bien connue et nous nous concentrons sur le dernier. Après avoir déterminé le bas du spectre essentiel, nous montrons que le bas du spectre est une valeur propre pour un secteur d'angle aigu. Nous explicitons le développement limité de la plus petite valeur propre quand l'angle du secteur tend vers 0 et précisons la localisation de l'état fondamental grâce aux techniques d'Agmon. Nous illustrons et estimons ensuite le comportement des vecteurs et valeurs propres à l'aide d'outils numériques basés sur la méthode des éléments finis. La localisation de l'état fondamental rend le problème discret très mal conditionné mais l'analyse des propriétés de l'opérateur et des défauts des méthodes classiques permet malgré tout de mettre en oeuvre un algorithme robuste et efficace calculant l'état fondamental. Afin d'améliorer les résultats numériques, nous construisons des estimateurs a posteriori pour ce problème aux valeurs propres et utilisons les techniques de raffinement de maillages pour localiser l'état propre dans des domaines généraux et étudier la variation du bas du spectre en fonction de l'angle du secteur.
APA, Harvard, Vancouver, ISO, and other styles
12

Sui, Liqi. "Uncertainty management in parameter identification." Thesis, Compiègne, 2017. http://www.theses.fr/2017COMP2330/document.

Full text
Abstract:
Afin d'obtenir des simulations plus prédictives et plus précises du comportement mécanique des structures, des modèles matériau de plus en plus complexes ont été développés. Aujourd'hui, la caractérisation des propriétés des matériaux est donc un objectif prioritaire. Elle exige des méthodes et des tests d'identification dédiés dans des conditions les plus proches possible des cas de service. Cette thèse vise à développer une méthodologie d'identification efficace pour trouver les paramètres des propriétés matériau, en tenant compte de toutes les informations disponibles. L'information utilisée pour l'identification est à la fois théorique, expérimentale et empirique : l'information théorique est liée aux modèles mécaniques dont l'incertitude est épistémique; l'information expérimentale provient ici de la mesure de champs cinématiques obtenues pendant l'essai ct dont l'incertitude est aléatoire; l'information empirique est liée à l'information à priori associée à une incertitude épistémique ainsi. La difficulté principale est que l'information disponible n'est pas toujours fiable et que les incertitudes correspondantes sont hétérogènes. Cette difficulté est surmontée par l'utilisation de la théorie des fonctions de croyance. En offrant un cadre général pour représenter et quantifier les incertitudes hétérogènes, la performance de l'identification est améliorée. Une stratégie basée sur la théorie des fonctions de croyance est proposée pour identifier les propriétés élastiques macro et micro des matériaux multi-structures. Dans cette stratégie, les incertitudes liées aux modèles et aux mesures sont analysées et quantifiées. Cette stratégie est ensuite étendue pour prendre en compte l'information à priori et quantifier l'incertitude associée
In order to obtain more predictive and accurate simulations of mechanical behaviour in the practical environment, more and more complex material models have been developed. Nowadays, the characterization of material properties remains a top-priority objective. It requires dedicated identification methods and tests in conditions as close as possible to the real ones. This thesis aims at developing an effective identification methodology to find the material property parameters, taking advantages of all available information. The information used for the identification is theoretical, experimental, and empirical: the theoretical information is linked to the mechanical models whose uncertainty is epistemic; the experimental information consists in the full-field measurement whose uncertainty is aleatory; the empirical information is related to the prior information with epistemic uncertainty as well. The main difficulty is that the available information is not always reliable and its corresponding uncertainty is heterogeneous. This difficulty is overcome by the introduction of the theory of belief functions. By offering a general framework to represent and quantify the heterogeneous uncertainties, the performance of the identification is improved. The strategy based on the belief function is proposed to identify macro and micro elastic properties of multi-structure materials. In this strategy, model and measurement uncertainties arc analysed and quantified. This strategy is subsequently developed to take prior information into consideration and quantify its corresponding uncertainty
APA, Harvard, Vancouver, ISO, and other styles
13

Clérin, Jean-Marc. "Problèmes de contrôle optimal du type bilinéaire gouvernés par des équations aux dérivées partielles d’évolution." Thesis, Avignon, 2009. http://www.theses.fr/2009AVIG0405/document.

Full text
Abstract:
Cette thèse est une contribution à l’étude de problèmes de contrôle optimal dont le caractère non linéaire se traduit par la présence, dans les équations d’état, d’un terme bilinéaire relativement à l’état et au contrôle. Malgré les difficultés liées à la non linéarité, nous obtenons des propriétés spécifiques au cas bilinéaire. L’introduction générale constitue la première partie. La seconde partie est consacrée à l’étude des équations d’état ; ce sont des équations aux dérivées partielles d’évolution. Nous établissons des estimations a priori sur les solutions à partir des inégalités de Willett et Wong et nous démontrons que les équations d’états sont bien posées. Dans le cas où les contrôles subissent une contrainte liée aux états, ces estimations permettent de déduire l’existence de solutions dans le cadre des inclusions différentielles. Les troisième et quatrième parties de ce mémoire sont dévolues à la démonstration de l’existence de contrôles optimaux, puis à l’analyse de la sensibilité relative à une perturbation qui intervient de façon additive dans l’équation d’état. Le caractère bilinéaire permet de vérifier des conditions suffisantes d’optimalité du second ordre. Nous fournissons sur des exemples, une formule explicite des dérivées directionnelles de la fonction valeur optimale
This thesis is devoted to the analysis of nonlinear optimal control problems governed by an evolution state equation involving a term which is bilinear in state and control. The difficulties due to nonlinearity remain, but bilinearity adds a lot of structure to the control problem under consideration. In Section 2, by using Willet and Wong inequalities we establish a priori estimates for the solutions of the state equation. These estimates allow us to prove that the state equation is well posed in the sense of Hadamard. In the case of a feedback constraint on the control, the state equation becomes a differential inclusion. Under mild assumptions, such a differential inclusion is solvable. In Section 3, we prove the existence of solutions to the optimal control problem. Section 4 is devoted to the sensitivity analysis of the optimal control problem. We obtain a formula for the directional derivative of the optimal value function. This general formula is worked out in detail for particular examples
APA, Harvard, Vancouver, ISO, and other styles
14

Grazian, Clara. "Contributions aux méthodes bayésiennes approchées pour modèles complexes." Thesis, Paris Sciences et Lettres (ComUE), 2016. http://www.theses.fr/2016PSLED001.

Full text
Abstract:
Récemment, la grande complexité des applications modernes, par exemple dans la génétique, l’informatique, la finance, les sciences du climat, etc. a conduit à la proposition des nouveaux modèles qui peuvent décrire la réalité. Dans ces cas,méthodes MCMC classiques ne parviennent pas à rapprocher la distribution a posteriori, parce qu’ils sont trop lents pour étudier le space complet du paramètre. Nouveaux algorithmes ont été proposés pour gérer ces situations, où la fonction de vraisemblance est indisponible. Nous allons étudier nombreuses caractéristiques des modèles complexes: comment éliminer les paramètres de nuisance de l’analyse et faire inférence sur les quantités d’intérêt,dans un cadre bayésienne et non bayésienne et comment construire une distribution a priori de référence
Recently, the great complexity of modern applications, for instance in genetics,computer science, finance, climatic science etc., has led to the proposal of newmodels which may realistically describe the reality. In these cases, classical MCMCmethods fail to approximate the posterior distribution, because they are too slow toinvestigate the full parameter space. New algorithms have been proposed to handlethese situations, where the likelihood function is unavailable. We will investigatemany features of complex models: how to eliminate the nuisance parameters fromthe analysis and make inference on key quantities of interest, both in a Bayesianand not Bayesian setting, and how to build a reference prior
APA, Harvard, Vancouver, ISO, and other styles
15

Capellier, Édouard. "Application of machine learning techniques for evidential 3D perception, in the context of autonomous driving." Thesis, Compiègne, 2020. http://www.theses.fr/2020COMP2534.

Full text
Abstract:
L’apprentissage machine a révolutionné la manière dont les problèmes de perception sont, actuellement, traités. En effet, la plupart des approches à l’état de l’art, dans de nombreux domaines de la vision par ordinateur, se reposent sur des réseaux de neurones profonds. Au moment de déployer, d’évaluer, et de fusionner de telles approches au sein de véhicules autonomes, la question de la représentation des connaissances extraites par ces approches se pose. Dans le cadre de ces travaux de thèse, effectués au sein de Renault SAS, nous avons supposé qu’une représentation crédibiliste permettait de représenter efficacement le comportement de telles approches. Ainsi, nous avons développé plusieurs modules de perception à destination d’un prototype de véhicule autonome, se basant sur l’apprentissage machine et le cadre crédibiliste. Nous nous sommes focalisés sur le traitement de données caméra RGB, et de nuages de points LIDAR. Nous avions également à disposition des cartes HD représentant le réseau routier, dans certaines zones d’intérêt. Nous avons tout d’abord proposé un système de fusion asynchrone, utilisant d’une part un réseau convolutionel profond pour segmenter une image RGB, et d’autre part un modèle géométrique simple pour traiter des scans LIDAR, afin de générer des grilles d’occupation crédibilistes. Etant donné le manque de robustesse des traitements géométriques LIDAR, les autres travaux se sont focalisés sur la détection d’objet LIDAR et leur classification par apprentissage machine, et la détection de route au sein de scans LIDAR. En particulier, ce second travail reposait sur l’utilisation de scans étiquetés automatiquement à partir de cartes HD
The perception task is paramount for self-driving vehicles. Being able to extract accurate and significant information from sensor inputs is mandatory, so as to ensure a safe operation. The recent progresses of machine-learning techniques revolutionize the way perception modules, for autonomous driving, are being developed and evaluated, while allowing to vastly overpass previous state-of-the-art results in practically all the perception-related tasks. Therefore, efficient and accurate ways to model the knowledge that is used by a self-driving vehicle is mandatory. Indeed, self-awareness, and appropriate modeling of the doubts, are desirable properties for such system. In this work, we assumed that the evidence theory was an efficient way to finely model the information extracted from deep neural networks. Based on those intuitions, we developed three perception modules that rely on machine learning, and the evidence theory. Those modules were tested on real-life data. First, we proposed an asynchronous evidential occupancy grid mapping algorithm, that fused semantic segmentation results obtained from RGB images, and LIDAR scans. Its asynchronous nature makes it particularly efficient to handle sensor failures. The semantic information is used to define decay rates at the cell level, and handle potentially moving object. Then, we proposed an evidential classifier of LIDAR objects. This system is trained to distinguish between vehicles and vulnerable road users, that are detected via a clustering algorithm. The classifier can be reinterpreted as performing a fusion of simple evidential mass functions. Moreover, a simple statistical filtering scheme can be used to filter outputs of the classifier that are incoherent with regards to the training set, so as to allow the classifier to work in open world, and reject other types of objects. Finally, we investigated the possibility to perform road detection in LIDAR scans, from deep neural networks. We proposed two architectures that are inspired by recent state-of-the-art LIDAR processing systems. A training dataset was acquired and labeled in a semi-automatic fashion from road maps. A set of fused neural networks reaches satisfactory results, which allowed us to use them in an evidential road mapping and object detection algorithm, that manages to run at 10 Hz
APA, Harvard, Vancouver, ISO, and other styles
16

Vaiter, Samuel. "Régularisations de Faible Complexité pour les Problèmes Inverses." Phd thesis, Université Paris Dauphine - Paris IX, 2014. http://tel.archives-ouvertes.fr/tel-01026398.

Full text
Abstract:
Cette thèse se consacre aux garanties de reconstruction et de l'analyse de sensibilité de régularisation variationnelle pour des problèmes inverses linéaires bruités. Il s'agit d'un problème d'optimisation convexe combinant un terme d'attache aux données et un terme de régularisation promouvant des solutions vivant dans un espace dit de faible complexité. Notre approche, basée sur la notion de fonctions partiellement lisses, permet l'étude d'une grande variété de régularisations comme par exemple la parcimonie de type analyse ou structurée, l'antiparcimonie et la structure de faible rang. Nous analysons tout d'abord la robustesse au bruit, à la fois en termes de distance entre les solutions et l'objet original, ainsi que la stabilité de l'espace modèle promu. Ensuite, nous étudions la stabilité de ces problèmes d'optimisation à des perturbations des observations. À partir d'observations aléatoires, nous construisons un estimateur non biaisé du risque afin d'obtenir un schéma de sélection de paramètre.
APA, Harvard, Vancouver, ISO, and other styles
17

Luu, Duy tung. "Exponential weighted aggregation : oracle inequalities and algorithms." Thesis, Normandie, 2017. http://www.theses.fr/2017NORMC234/document.

Full text
Abstract:
Dans plusieurs domaines des statistiques, y compris le traitement du signal et des images, l'estimation en grande dimension est une tâche importante pour recouvrer un objet d'intérêt. Toutefois, dans la grande majorité de situations, ce problème est mal-posé. Cependant, bien que la dimension ambiante de l'objet à restaurer (signal, image, vidéo) est très grande, sa ``complexité'' intrinsèque est généralement petite. La prise en compte de cette information a priori peut se faire au travers de deux approches: (i) la pénalisation (très populaire) et (ii) l'agrégation à poids exponentiels (EWA). L'approche penalisée vise à chercher un estimateur qui minimise une attache aux données pénalisée par un terme promouvant des objets de faible complexité (simples). L'EWA combine une famille des pré-estimateurs, chacun associé à un poids favorisant exponentiellement des pré-estimateurs, lesquels privilègent les mêmes objets de faible complexité.Ce manuscrit se divise en deux grandes parties: une partie théorique et une partie algorithmique. Dans la partie théorique, on propose l'EWA avec une nouvelle famille d'a priori favorisant les signaux parcimonieux à l'analyse par group dont la performance est garantie par des inégalités oracle. Ensuite, on analysera l'estimateur pénalisé et EWA, avec des a prioris généraux favorisant des objets simples, dans un cardre unifié pour établir des garanties théoriques. Deux types de garanties seront montrés: (i) inégalités oracle en prédiction, et (ii) bornes en estimation. On les déclinera ensuite pour des cas particuliers dont certains ont été étudiés dans littérature. Quant à la partie algorithmique, on y proposera une implémentation de ces estimateurs en alliant simulation Monte-Carlo (processus de diffusion de Langevin) et algorithmes d'éclatement proximaux, et montrera leurs garanties de convergence. Plusieurs expériences numériques seront décrites pour illustrer nos garanties théoriques et nos algorithmes
In many areas of statistics, including signal and image processing, high-dimensional estimation is an important task to recover an object of interest. However, in the overwhelming majority of cases, the recovery problem is ill-posed. Fortunately, even if the ambient dimension of the object to be restored (signal, image, video) is very large, its intrinsic ``complexity'' is generally small. The introduction of this prior information can be done through two approaches: (i) penalization (very popular) and (ii) aggregation by exponential weighting (EWA). The penalized approach aims at finding an estimator that minimizes a data loss function penalized by a term promoting objects of low (simple) complexity. The EWA combines a family of pre-estimators, each associated with a weight exponentially promoting the same objects of low complexity.This manuscript consists of two parts: a theoretical part and an algorithmic part. In the theoretical part, we first propose the EWA with a new family of priors promoting analysis-group sparse signals whose performance is guaranteed by oracle inequalities. Next, we will analysis the penalized estimator and EWA, with a general prior promoting simple objects, in a unified framework for establishing some theoretical guarantees. Two types of guarantees will be established: (i) prediction oracle inequalities, and (ii) estimation bounds. We will exemplify them for particular cases some of which studied in the literature. In the algorithmic part, we will propose an implementation of these estimators by combining Monte-Carlo simulation (Langevin diffusion process) and proximal splitting algorithms, and show their guarantees of convergence. Several numerical experiments will be considered for illustrating our theoretical guarantees and our algorithms
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography