Dissertations / Theses on the topic 'Modèles et méthodes pédagogiques'

To see the other types of publications on this topic, follow the link: Modèles et méthodes pédagogiques.

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 dissertations / theses for your research on the topic 'Modèles et méthodes pédagogiques.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Martiano, Sandie. "Pratiques et représentations de l'écrit chez les élèves de cycle III de l'école élémentaire au regard de différents modèles pédagogiques." Paris 12, 2005. https://athena.u-pec.fr/primo-explore/search?query=any,exact,990003940910204611&vid=upec.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
L'enjeu de cette recherche consiste à saisir l'influence de la mise en oeuvre de différents modèles pédagogiques sur les pratiques et les représentations de l'écriture chez les élèves. Il s'agit d'identifier le lien existant entre les paramètres caractéristiques de ces modèles et l'évolution des pratiques et représentations de l'écrit des élèves. Nos investigations ont porté sur cinq classes de 3ème année de cycle III. Divers types de données ont été analysées : des observations de séances, des enregistrements audio des échanges en classe entière ou en petits groupes, des questionnaires écrits destinés aux élèves afin de recueillir leurs représentations de l'écrit et du travail de groupe, des textes d'élèves et des entretiens semi-directifs conduits avec les enseignantes. Les résultats de cette étude montrent que l'évolution des représentations et des pratiques des élèves est fonction de la présence de certains paramètres ou de combinaisons de paramètres constitutifs des dispositifs
The purpose of the study is to grasp the influence of the implementation of various pedagogical models on the practices and representations of writing among pupils. The point is to identify the existing correlation between the characteristic parameters of these models and the evolution of the practices and representations of writing among pupils. Our research was carried on five groups of third-year pupils in cycle III. Various data have been analyzed : class observations, audio recordings of activities with the whole group or with smaller groups, written questionnaires filled by the pupils to collect their representations of writing and of group-work, pupils' texts and semi-conducted interviews led with the collaboration of the teachers. The results of this study display that the evolution of practices ans representations of writing is conditioned by the presence of some parameters or by the combination of several parameters that are typical of the pedagogical models
2

Catala, Benoît. "La transmission-appropriation des savoirs stratégiques et tactiques en boxe thaïlandaise : médiation et résolution de problèmes au service de la performance sportive par la comparaison de deux modèles d'entraînement et l'étude de cas d'entraînés." Electronic Thesis or Diss., Pau, 2023. http://www.theses.fr/2023PAUU3066.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Le travail est une recherche en didactique de la boxe thaïlandaise, centrée sur le double processus de transmission et d'appropriation des savoirs d'ordre stratégique, tactique et technique à des fins de performance sportive. L'enjeu est de former un combattant plus réfléchi dans ses modalités de réponse face à un problème posé par un adversaire. Nous visons l'acquisition de méthodes d'entraînement innovantes et la construction de nouveaux rapports aux savoirs, à l'entraînement et à l'entraîneur, en rupture avec les modèles traditionnels. Notre étude part d'une problématique générale axée sur la comparaison de l'efficacité, entre deux modèles d'entraînement sur une période donnée : à savoir, d'une part, la pédagogie du modèle de décisions guidées (PMDG) qui consiste à s'entraîner avec un guidage renforcé de l'entraîneur dans le choix des solutions et, d'autre part, la pédagogie du modèle auto-adaptatif (PMAA) qui consiste à s'entraîner avec un faible guidage et qui impose de responsabiliser les élèves dans la recherche de solutions face à un problème posé. L'originalité de cette étude réside dans son caractère interdisciplinaire, associant la didactique des disciplines scientifiques et technologiques avec la didactique clinique, et dans une approche méthodologique combinant des analyses quantitatives relatives à l'évolution de la performance en situation et des analyses qualitatives traitant du vécu subjectif des pratiquants. Le protocole expérimental a consisté à mettre en place les deux modèles originaux d'entraînement à la résolution de problèmes posés par un adversaire attaquant, pour lesquels nous avons disposé de données quantitatives relatives aux actions défensives du boxeur. Cela nous a permis d'évaluer les évolutions des participants de chaque groupe grâce à des analyses statistiques. D'autres variables ont été testées et nous ont amené à apprécier le rapport entre les méthodes et les rounds, les méthodes et les types de problèmes. En parallèle, nous avons recueilli le vécu subjectif des entraînés, par le biais d'entretiens semi-dirigés menés en ante et post protocole. Le traitement des données a permis de comprendre comment chacun a perçu et a évolué au cours de l'expérimentation dans ses rapports aux savoirs, à l'entraînement et à l'entraîneur. Nous pouvons écrire, dans une observation globale de nos résultats, qu'il conviendrait donc de démarrer une situation de combat en compétition par un modèle de type PMDG. Ceci peut apparaître comme un juste raisonnement dans le sens où l'on apporte de la certitude dans un milieu à haute incertitude, tout particulièrement en round 1 (R1). L'incertitude est alors diminuée en round 2 (R2), notamment par la découverte faite de l'adversaire durant le round précédent. Conséquemment en R2 (si on s'en résume à notre protocole de recherche) et plus généralement dans les rounds qui suivent le premier round (si l'on se rapproche d'une situation réelle de combat), nous pourrions choisir entre les deux méthodes, PMAA et PMDG, que l'entraîneur, par la relation construite avec son athlète et sa connaissance de l'activité et la reconnaissance de l'adversité rencontrée, pourrait réguler. Cela corrobore les conclusions issues de travaux précédents sur « l'ordre des modèles » et l'idée que ce dernier doit être déterminé en fonction des étapes de la formation et du type d'habiletés visées. Concernant les entretiens et le rapport à l'entraînement et à l'entraîneur, les sujets valorisent une autonomie partielle. Ils apprécient de chercher des solutions par leurs propres moyens mais ont tout de même besoin de l'entraîneur lors des situations d'opposition ou plus fréquemment à l'entraînement pour la validation de leurs actions ou pour obtenir des conseils ou des encouragements. Les études de cas ont notamment mis en relief le vécu singulier de chaque combattant dans le rapport à leur entraîneur et, pour certains, l'évolution de leurs conceptions
The research carried out explores the didactics of Thai boxing, focusing on the dual process of strategic, tactical and technical knowledge transmission and appropriation for the purposes of optimising sport performance . The aim is to train fighters' ability to thoughtfully address challenges presented by an opponent. Our approach centers on reflective thinking occurring before, during and after a training situation's actionin order to foster reasoned, conscious boxing. We seek to acquire innovative training methods and build new relationships between to knowledge, training and trainers, breaking with traditional training models.Our study focuses on comparing the effectiveness of two training models in terms of sport performance. The first model, called the Guided Decision Pedagogy Model (PMDG), involves reinforced coach guidance for solution selection. The second model, known as the Self-Adaptive Approach Pedagogy Model (PMAA), offers less guidance and encourages boxers to independently seek solutions for specific challenges.The originality of this study lies in its interdisciplinary approach, notably associating the didactics of scientific and technological disciplines with clinical research, in a methodological approach integrating quantitative analysis tracking performance evolution in training situations, and qualitative analysis delving into practitioners' subjective experiences.The experimental protocol involved implementing two unique training models to address problems posed by an attacking opponent, for which we had quantitative data on the boxer's defensive actions. This allowed us to assess participants' progress in each group through statistical analysis. Additionally, various variables were examined to assess the relationship between methods, rounds and types of problem.We also gathered trainees' subjective experiences through semi-structured interviews conducted before and after the protocol. Analysing this data provided insights into how each individual perceived and developed their relationship to knowledge, training and the coach during the experiment.In our comprehensive analysis of results, it appears that the PMDG method is more effective for group advancement, while the PMAA method appears to be more conducive to individual progress.Regarding the interviews and the trainees' relationships to training and the coach, participants highly appreciated having some degree of autonomy. They found satisfaction in seeking solutions independently, but they also relied on the coach, especially in opposition scenarios or for validation, advice, or motivation during training. The case studies underscored the distinct experiences of each fighter in their coach-student relationship, and for some, the evolution of their ideas.This study could be extended by applying the same protocol to offensive strategies or by comparing its effects with other established models.The objective is to corroborate current findings, uncover new insights, contribute to the advancement of training and research in the realm of sports and athletics, and more generally to foster the development and exploration of novel models of knowledge transmission and appropriation
3

Ouraiba, El Amine. "Scénarisation pédagogique pour des EIAH ouverts : Une approche dirigée par les modèles et spécifique au domaine métier." Phd thesis, Université du Maine, 2012. http://tel.archives-ouvertes.fr/tel-00790696.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Dans cette thèse, nous nous sommes intéressés à l'ouverture des EIAH (EnvironnementsInformatiques pour l'Apprentissage Humain), pour répondre à leur faible déploiement dansles établissements de formation, en facilitant leur appropriation par des usagers. Notre travailde recherche s'inscrit dans le cadre du projet REDiM (Réingénierie des EIAH Dirigée par lesModèles) mené au LIUM (Laboratoire d'Informatique de l'Université du Maine), dont un desobjectifs est d'intégrer les enseignants dans le processus de conception des scénariospédagogiques d'un EIAH.Nous proposons une approche d'ingénierie et de réingénierie pour rendre un EIAH ouvertà la conception et à l'adaptation de ses scénarios pédagogiques par les enseignantsutilisateurs. Nous avons défini un processus de conception basé sur la modélisationde scénarios pédagogiques ouverts (SPO), qui permet l'instrumentation des enseignantspour les aider dans la conception continue (i.e. qui se poursuit dans l'usage) d'une activitéd'apprentissage. Nous faisons trois propositions scientifiques :- Un modèle de représentation des SPO, qui permet de les structurer en variantes enfonction des contextes d'exécution. Nous qualifions ce modèle de rationnel puisqu'il s'appuieprincipalement sur l'approche du Design Rationale que nous avons adaptée à notreproblématique.- Un processus itératif et incrémental d'ingénierie et de réingénierie qui guide lesenseignants pour concevoir et adapter des SPO conformes au modèle que nous avonsdéfini.- Une méthode dirigée par les modèles et spécifique au domaine métier pour instrumenterle processus d'ouverture des scénarios pédagogiques d'un EIAH existant. Cette méthoded'instrumentation, reposant sur l'IDM (Ingénierie Dirigée par les Modèles) et le DSM(Domain-Specific Modeling), implique les enseignants utilisateurs de l'EIAH, considérés icicomme des experts du domaine. Elle est structurée en plusieurs phases qui amènentprogressivement à définir, de façon spécifique à l'EIAH considéré, un langage d'expressiondes SPO (ADSGEML - Adaptive Domain-Specific Graphical Educational ModelingLanguage) et un éditeur associé permettant la conception et l'adaptation des SPO dansl'univers métier de l'EIAH.Afin d'évaluer et de raffiner nos propositions, nous les avons appliquées sur l'EIAH"Hop3x", préalablement conçu au LIUM dans le cadre d'un autre projet pour pratiquer laprogrammation orientée objet. Nous avons donc élaboré un ADSGEML et un environnementd'édition graphique pour permettre aux enseignants de concevoir et d'adapterdynamiquement des sessions ouvertes de Hop3x, à un niveau élevé d'abstraction.
4

Peyrat, Marie-France. "Tutorat et apprentissage coopératif : comparaison de deux méthodes pédagogiques." Bordeaux 2, 2008. http://www.theses.fr/2008BOR21523.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Durant neuf semaines, 149 élèves de 6ème travaillent sur des tâches de Français, soit individuellement, soit en groupe. Les élèves ont l’occasion d’échanger leurs points de vue, d’avoir accès à la parole plus souvent et de manière plus libre au niveau des travaux collectifs. Comparer des méthodes pédagogiques, c'est évaluer si l'asymétrie des compétences nécessitée par le tutorat, est plus ou moins efficace pour les progrès des élèves, que la symétrie, mise en oeuvre au niveau de l’apprentissage coopératif. C'est aussi tenter de savoir, si le laps de temps passé à être ensemble influence ou non les progrès. Les théories sur le développement cognitif de l'enfant permettent d'interpréter les observations et les résultats des travaux de groupe mis en place
During nine weeks, 149 pupils of junior high school are working on tasks in French, either individually, or in group. The pupils have the opportunity to exchange their points of view, to have access to word more often and in a freer way in collective work. Comparing pedagogic methods, is accessing if the asymmetry of skills required by tutoring is more or less efficient for the pupils’ progress, than the symmetry, implemented at the level of cooperative learning. It’s also trying to know if the time spent together influences progress or not. Theories of children’s cognitive development allow to interpret the observations and results of group work which are set up
5

Villiot-Leclercq, Emmanuelle. "Modèle de soutien à l'élaboration et à la réutilisation de scénarios pédagogiques." Phd thesis, Université Joseph Fourier (Grenoble), 2007. http://tel.archives-ouvertes.fr/tel-00156604.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Notre travail de thèse se situe dans le contexte de la recherche en EIAH (Environnements Informatisés pour l'Apprentissage Humain), et il porte plus particulièrement sur la dimension de la scénarisation pédagogique instrumentée.
Avec le développement des TICE, les praticiens de la formation (enseignants et concepteurs pédagogiques) se trouvent confrontés dans leur travail quotidien à la conception de situations d'apprentissage instrumentées. Cette situation entraîne de nouvelles pratiques de conception pédagogique (partage, réutilisation) et un essor des approches pédagogiques « actives », tout en conduisant les praticiens à porter une attention particulière à la formalisation préalable des situations d'apprentissage via des scénarios pédagogiques. Ces derniers sont ainsi définis par Paquette (05) : « un ensemble ordonné d'activités, régies par des acteurs qui utilisent et produisent des ressources ».
Dans ce contexte, notre problème de recherche porte sur les modalités d'expression des scénarios pédagogiques qui permettraient à un scénario d'être facilement réutilisable par un enseignant et un concepteur pédagogique. Notre hypothèse générale est que si les scénarios étaient décrits de façon plus formelle, si les intentions pédagogiques y étaient mieux explicitées, et si les tâches de réutilisation étaient mieux définies et mieux soutenues, ils seraient plus facilement réutilisables. Notre objectif général de recherche porte ainsi, d'une part sur la façon d'exprimer, des scénarios formalisés et instrumentables par les TICE, et d'autre part, de soutenir l'apprentissage de leur réutilisation dans un contexte spécifique. Notre méthodologie de recherche est fondée sur une double approche : une approche par modélisation et une approche centrée usager. Elle vise l'élaboration de modèles théoriques en interaction avec les praticiens de la formation et intègre des évaluations aux diverses étapes de la modélisation.
Nous présentons dans ce document trois propositions qui permettent de répondre à notre hypothèse et objectif de recherche. La première proposition est une méthode basée sur une métaphore pour exprimer de façon formalisée et instrumentable les scénarios pédagogiques : la méthode des Pléiades. La seconde proposition est un modèle d'interprétation du processus de réutilisation des scénarios pédagogiques : le modèle CAA (Choix, Appropriation, Adaptation). La troisième proposition est un modèle de soutien à quatre niveaux au processus de réutilisation des scénarios pédagogiques formalisés : le modèle MOSCA. Ce modèle repose sur un ensemble d'artefacts mis à la disposition des usagers pour les soutenir lors de leur tâche de réutilisation. Le choix et la construction des artefacts s'appuient à la fois sur la méthode des Pléiades et sur le modèle CAA.
La méthode et les modèles ont été évalués avec des usagers-experts en scénarisation sur la réutilisation d'un scénario « Étude de Cas ». L'évaluation a montré que les formalismes proposés favorisaient une meilleure compréhension du processus de scénarisation ainsi que la réutilisation et l'adaptation des scénarios. Les conclusions de ce travail ouvrent de nombreuses perspectives de prolongement et de recherche à court et moyen terme.
6

Belandria, de Méndez Carmen. "L'audiovisuel et l'enseignant universitaire au Venezuela : pratiques personnelles et pédagogiques." Paris 5, 1985. http://www.theses.fr/1985PA05H067.

Full text
APA, Harvard, Vancouver, ISO, and other styles
7

Lachheb, Monia. "Modèles du corps et modèles pédagogiques à travers l'éducation physique et sportive tunisienne contemporaine." Montpellier 3, 2007. http://www.theses.fr/2007MON30004.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La recherche porte sur les fondements épistémologiques des modèles du corps véhiculés par l’enseignement de l’éducation physique tunisienne et sur les modèles pédagogiques qu’elle utilise pour concrétiser ses intentions éducatives. L’analyse des textes législatifs propres à cette discipline d’enseignement et la description ethnographique des pratiques pédagogiques montrent que le corps sportif constitue l’idéaltype corporel privilégié qui fonde ses orientations axiologiques. Le modèle didactique semble aussi prégnant et révèle une cohérence marquante entre le versant discursif et le versant pragmatique propres à l’éducation physique. Quand l’analyse prend le corps comme point d’appui, il s’avère que la corporéité uniformisée et normalisée par les injonctions de ce modèle éducatif est assimilée à un automate et interprétée par référence à une métaphore mécanique
The research is about epistemological basis of body models transmitted by the Tunisian educational system and the pedagological models used in order to make concrete its intentions. The analysis of legislative texts related to this discipline of teaching and the ethnographic description of pedagogical practises show that the sporting body constitutes the privileged corporal ideal type that guides its axiological orientations. The didactic model reveals an obvious coherence between versant discursive and versant pragmatic proper to physical education. When the analysis considers the body as the starting point, it reveals that the corporality uniformed and normalised by the injunctions of this educational model is assimilated to an automate and interpreted with reference to a mechanical metaphor
8

Mille, Dominique. "Modèles et outils logiciels pour l'annotation sémantique de documents pédagogiques." Université Joseph Fourier (Grenoble), 2005. https://tel.archives-ouvertes.fr/tel-00011468.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Cette thèse s'intéresse aux annotations produites par des apprenants sur des documents électroniques. Les annotations sont utiles tant pour mémoriser une démarche de compréhension que pour retrouver facilement des informations. Nous remarquons que l'annotation électronique est peu pratiquée en raison des inconforts de lecture et d'annotation. De plus les annotations sont porteuses d'une sémantique implicite, perdue lors des réutilisations, comme par exemple des liens entre couleur et objectif de l'annotation. Dans ce contexte, notre objectif est de proposer des formalismes et des outils efficaces pour l'annotation électronique de ressources pédagogiques par des apprenants. Cette efficacité signifie que les dispositifs doivent être adaptés aux niveaux logiciel et matériel, qu'ils anticipent les réutilisations pour éviter l'impression systématique des documents, et qu'ils offrent les avantages d'un traitement informatisé. Elle signifie également que les annotations doivent être conservées dans leur intégralité : il est donc nécessaire d'expliciter leur sémantique tant au niveau d'une représentation formelle qu'au niveau d'un annoteur. Plus précisément, notre travail comporte une proposition de représentation formelle de l'annotation, que nous implantons et testons lors d'expérimentations écologiques. En résultat, nous produisons une spécification d'annoteur efficace basé sur les métaphores du papier et de la trousse : le lecteur conserve ses habitudes papier lors de la lecture et de la création et il bénéficie des avantages d'un traitement informatisé pour la valuation, la recherche et le partage
This thesis is interested in the annotations produced by learning on electronic documents. The annotations are useful to memorize a step of comprehension as well as to find information easily. We notice that the electronic annotation is little practised because of reading and annotation discomforts. Moreover annotations contain an implicit semantics, lost during the re-uses, such as for example of the relation between color and objective of the annotation. In this context, our objective is to propose effective formalisms and tools for the electronic annotation of teaching resources by learning. In this context, our objective is to propose formalisms and effective tools for the learners electronic annotation of educational resources. This effectiveness means that devices must be adapted to the software and material levels, that they anticipate the re-uses to avoid the systematic impression of the documents, and that they offer the advantages of a computerized treatment. It also means that the annotations must be preserved in their completeness: it is thus necessary to clarify their semantics both at the level of a formal representation and at the level of an annotor. More precisely, our work comprises a proposal of formal representation of the annotation, which we inplant and test during ecological experiments. In result, we produce an effective specification of effective annotor based on the metaphors of paper and pencil case: the reader keeps his paper practices during the reading and the creation, and he benefits from the advantages of a computerized treatment for the valuation, the research and the sharing
9

Salehi-Abtahi, Marjan. "Textes littéraires et classe de Français langue étrangère : modèles didactiques et propositions pédagogiques." Paris 3, 2008. http://www.theses.fr/2008PA030068.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
L’enseignement d’une langue étrangère a été très souvent associé à l’utilisation de textes littéraires. Les situations changent, les objectifs, les méthodologies, les moyens techniques évoluent, mais par-delà ces transformations, on retrouve, sous des formes variables, cette relation entre enseignement de langue et littérature. Après avoir été momentanément sous-estimée dans les années soixante, dans la réflexion didactique en F. L. E. , la littérature retrouve de toute évidence son importance dès les débuts des années 1980 et ce « retour » a été validé par l’approche communicative. La publication de nombreuses recherches portant sur l’enseignement de la littérature ou l’utilisation du texte littéraire dans une classe de langue montre l’évidence de la réintroduction de ce domaine dans la didactique du F. L. E. Dans ce travail de recherche, notre objectif est d’examiner s’il existe un décalage, en synchronie et en diachronie, entre les modèles didactiques proposés dans les livres théoriques et les propositions pédagogiques présentés dans les manuels et les fiches pédagogiques des revues spécialisées. Pour réaliser cette tâche, nous avons choisi les livres théoriques de base en didactique du F. L. E. , pour connaître les modèles didactiques proposés concernant l’enseignement de la littérature dans les classes de langue. En ce qui concerne les propositions pédagogiques, nous avons décidé de travailler sur quelques méthodes de langue publiées en France entre 1994 et 2005 ainsi que sur des fiches pédagogiques dans les revues spécialisées notamment Le Français dans le Monde
The teaching a foreign language has often been associated with using literary texts. Situations change, objectives, methodologies, and techniques evolve but beyond these transformations, the relationship between literature and teaching of a language in one form or another has remained the same. After being temporarily underestimated during the sixties, didactical methods of teaching “French as a Foreign Language” (FFL) and use of literature, once again found its importance in the early eighties and this “come back” has been validated by the Communicative approach. Publication of numerous research works on teaching of literature and use of literary texts in language courses, shows clearly the reintroduction of this matter in the didactics of FFL. In this research work, our objective is to examine the existence of a gap in synchrony and in diachrony, between the didactic models proposed in the theoretical books and the pedagogic propositions on textbooks and pedagogical files on specialized reviews. To accomplish this, we chose the theoretical basic books in didactics of the FFL, to learn the didactical models proposed, concerning the teaching of literature in language courses. In regards to pedagogical propositions, we decided to work on some methods of language teaching published in France between 1994 and 2005 as well as pedagogical records in specialized journals, specifically in Le Français dans le Monde
10

Falempe, Michel. "Synthèse des réseaux de fluides et de leurs méthodes d'étude, aspects pédagogiques, expérimentaux et industriels." Valenciennes, 1995. https://ged.uphf.fr/nuxeo/site/esupversions/470db46c-3100-4a06-aba4-d80dcd440688.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La synthèse est réalisée à partir d'une analyse menée sous l'angle de l'utilisateur professionnel d'un réseau de fluide. Elle regroupe les nombreuses situations rencontrées suivant: l'appartenance (enseignant, étudiant, industriel, chercheur), et les motivations (dimensionnement, vérification, régime variable). Des tableaux systématiques sont proposes pour chaque approche concernant entre autres: (a) le type de fluide transporte (liquide, gaz) avec options (compressible, changement d'état) ; (b) la configuration structurelle (relation avec l'extérieur, principes, type de distribution, dimension spatiale) ; (c) le mode d'identification (2 nœuds, 2 ou 6 mailles) ; (d) les 10 méthodes de base (méthode récursive, les 8 méthodes maillées et la méthode des pressions aux nœuds) trois tableaux principaux résument en fonction des méthodes: les compatibilités avec les réseaux, les contraintes d'organisation et de configuration, les domaines d'application. Les propositions et assertions reposent sur: une synthèse des composants des réseaux prenant en compte: (a) les tuyauteries, pompes, échangeurs, vannes ; (b) le choix des aspects hydrauliques seuls, ou thermo hydrauliques, (c) le choix de calculs en pression motrice seule ou totale ; ainsi que les spécificités de chacun une démarche systématique d'établissement des 10 méthodes, avec une écriture utilisant 2 repères de nœud et 6 repères de maille, (ordre supérieur au problème plan) ; un module informatique de calcul: (a) appliquant les 10 méthodes (séparément ou en combinaison), (b) utilisant le maximum d'instructions communes (usages de variables booléennes, d'un tableau-matrice compresse unique), (c) simplifiant le repérage et le traitement. Trois applications de la démarche multi-méthodes sont présentées ainsi qu'un ensemble industriel de cogénération et de co-utilisation d'énergies mécanique et thermique servant de banc expérimental aux développements futurs
11

Jung, Matthieu. "Évolution du VIH : méthodes, modèles et algorithmes." Phd thesis, Université Montpellier II - Sciences et Techniques du Languedoc, 2012. http://tel.archives-ouvertes.fr/tel-00842785.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La donnée de séquences nucléotidiques permet d'inférer des arbres phylogénétiques, ou phylogénies, qui décrivent leurs liens de parenté au cours de l'évolution. Associer à ces séquences leur date de prélèvement ou leur pays de collecte, permet d'inférer la localisation temporelle ou spatiale de leurs ancêtres communs. Ces données et procédures sont très utilisées pour les séquences de virus et, notamment, celles du virus de l'immunodéficience humaine (VIH), afin d'en retracer l'histoire épidémique à la surface du globe et au cours du temps. L'utilisation de séquences échantillonnées à des moments différents (ou hétérochrones) sert aussi à estimer leur taux de substitution, qui caractérise la vitesse à laquelle elles évoluent. Les méthodes les plus couramment utilisées pour ces différentes tâches sont précises, mais lourdes en temps de calcul car basées sur des modèles complexes, et ne peuvent traiter que quelques centaines de séquences. Devant le nombre croissant de séquences disponibles dans les bases de données, souvent plusieurs milliers pour une étude donnée, le développement de méthodes rapides et efficaces devient indispensable. Nous présentons une méthode de distances, Ultrametric Least Squares , basée sur le principe des moindres carrés, souvent utilisé en phylogénie, qui permet d'estimer le taux de substitution d'un ensemble de séquences hétérochrones, dont on déduit ensuite facilement les dates des spéciations ancestrales. Nous montrons que le critère à optimiser est parabolique par morceaux et proposons un algorithme efficace pour trouver l'optimum global. L'utilisation de séquences échantillonnées en des lieux différents permet aussi de retracer les chaînes de transmission d'une épidémie. Dans ce cadre, nous utilisons la totalité des séquences disponibles (~3500) du sous-type C du VIH-1, responsable de près de 50% des infections mondiales au VIH-1, pour estimer ses principaux flux migratoires à l'échelle mondiale, ainsi que son origine géographique. Des outils novateurs, basés sur le principe de parcimonie combiné avec différents critères statistiques, sont utilisés afin de synthétiser et interpréter l'information contenue dans une grande phylogénie représentant l'ensemble des séquences étudiées. Enfin, l'origine géographique et temporelle de ce variant (VIH-1 C) au Sénégal est précisément explorée lors d'une seconde étude, portant notamment sur les hommes ayant des rapports sexuels avec des hommes.
12

Jung, Matthieu. "Evolution du VIH : méthodes, modèles et algorithmes." Thesis, Montpellier 2, 2012. http://www.theses.fr/2012MON20052/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La donnée de séquences nucléotidiques permet d'inférer des arbres phylogénétiques, ou phylogénies, qui décrivent leur lien de parenté au cours de l'évolution. Associer à ces séquences leur date de prélèvement ou leur pays de collecte, permet d'inférer la localisation temporelle ou spatiale de leurs ancêtres communs. Ces données et procédures sont très utilisées pour les séquences de virus et, notamment, celles du virus de l'immunodéficience humaine (VIH), afin d'en retracer l'histoire épidémique à la surface du globe et au cours du temps. L'utilisation de séquences échantillonnées à des moments différents (ou hétérochrones) sert aussi à estimer leur taux de substitution, qui caractérise la vitesse à laquelle elles évoluent.Les méthodes les plus couramment utilisées pour ces différentes tâches sont précises, mais lourdes en temps de calcul car basées sur des modèles complexes, et ne peuvent traiter que quelques centaines de séquences. Devant le nombre croissant de séquences disponibles dans les bases de données, souvent plusieurs milliers pour une étude donnée, le développement de méthodes rapides et efficaces devient indispensable. Nous présentons une méthode de distances, Ultrametric Least Squares, basée sur le principe des moindres carrés, souvent utilisé en phylogénie, qui permet d'estimer le taux de substitution d'un ensemble de séquences hétérochrones, dont on déduit ensuite facilement les dates des spéciations ancestrales. Nous montrons que le critère à optimiser est parabolique par morceaux et proposons un algorithme efficace pour trouver l'optimum global.L'utilisation de séquences échantillonnées en des lieux différents permet aussi de retracer les chaînes de transmission d'une épidémie. Dans ce cadre, nous utilisons la totalité des séquences disponibles (~3 500) du sous-type C du VIH-1 (VIH de type 1), responsable de près de 50% des infections mondiales au VIH-1, pour estimer ses principaux flux migratoires à l'échelle mondiale, ainsi que son origine géographique. Des outils novateurs, basés sur le principe de parcimonie combiné avec différents critères statistiques, sont utilisés afin de synthétiser et interpréter l'information contenue dans une grande phylogénie représentant l'ensemble des séquences étudiées. Enfin, l'origine géographique et temporelle de ce variant (VIH-1 C) au Sénégal est précisément explorée lors d'une seconde étude, portant notamment sur les hommes ayant des rapports sexuels avec des hommes
Nucleotide sequences data enable the inference of phylogenetic trees, or phylogenies, describing their evolutionary re-lationships during evolution. Combining these sequences with their sampling date or country of origin, allows inferring the temporal or spatial localization of their common ancestors. These data and methods are widely used with viral sequences, and particularly with human immunodeficiency virus (HIV), to trace the viral epidemic history over time and throughout the globe. Using sequences sampled at different points in time (or heterochronous) is also a mean to estimate their substitution rate, which characterizes the speed of evolution. The most commonly used methods to achieve these tasks are accurate, but are computationally heavy since they are based on complex models, and can only handle few hundreds of sequences. With an increasing number of sequences avail-able in the databases, often several thousand for a given study, the development of fast and accurate methods becomes essential. Here, we present a new distance-based method, named Ultrametric Least Squares, which is based on the princi-ple of least squares (very popular in phylogenetics) to estimate the substitution rate of a set of heterochronous sequences and the dates of their most recent common ancestors. We demonstrate that the criterion to be optimized is piecewise parabolic, and provide an efficient algorithm to find the global minimum.Using sequences sampled at different locations also helps to trace transmission chains of an epidemic. In this respect, we used all available sequences (~3,500) of HIV-1 subtype C, responsible for nearly 50% of global HIV-1 infections, to estimate its major migratory flows on a worldwide scale and its geographic origin. Innovative tools, based on the principle of parsimony, combined with several statistical criteria were used to synthesize and interpret information in a large phylogeny representing all the studied sequences. Finally, the temporal and geographical origins of the HIV-1 subtype C in Senegal were further explored and more specifically for men who have sex with men
13

Houssou-Sah, Moïse. "Modèles pédagogiques et adaptation de l'école au milieu en AfriqueL'expérience du Bénin." Paris 10, 1985. http://www.theses.fr/1985PA100149.

Full text
APA, Harvard, Vancouver, ISO, and other styles
14

Gauzens, Benoit. "Structure et fonctionnalité des réseaux trophiques : modèles et méthodes." Paris 6, 2011. http://www.theses.fr/2011PA066298.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
En définissant les cheminements énergétiques entre les organismes, les réseaux trophiques déterminent un ensemble de contraintes et de possibilités qui influencent le fonctionnement des écosystèmes. Bien qu’étudiée depuis de nombreuses années, leur complexité a conduit les écologistes à ne considérer qu’une image très simplifiée des interactions trophiques. Cette complexité qui rend délicate toute approche dynamique peut être prise en compte dès lors que l’on considère la structure du réseau dans son ensemble. Cette étude explore les liens entre les paramètres structurels des réseaux trophiques et leur fonctionnalité, en montrant l’impact topologique que peuvent avoir les facteurs de contrôle ascendants et descendants au sein des communautés, ou certaines biomanipulations classiquement réalisées dans la lutte contre l’eutrophisation. Il a également été montré que ces résultats sont en grande partie conservés avec des réseaux simplifiés, dès lors que les espèces sont agrégées selon des critères cohérents du point de vue de la théorie de la niche trophique. La pertinence des résultats obtenus sur des systèmes simplifiés a conduit à développer une méthode de détection automatisée de groupes trophiques, permettant de mettre en avant que la notion de groupe trophique dans les réseaux permet de minimiser la perte d’information engendrée par l’agrégation. Une autre simplification couramment faite étant l’absence de prise en compte des intensités de consommation, il a été proposé une démarche visant à intégrer diverses informations de la littérature au sein d’une même formulation probabiliste.
15

Pétin, Jean-François. "Méthodes et modèles pour un processus sûr d'automatisation." Habilitation à diriger des recherches, Université Henri Poincaré - Nancy I, 2007. http://tel.archives-ouvertes.fr/tel-00202431.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les travaux développés dans ce mémoire concernent la formalisation d'un processus sûr d'automatisation en vue de maîtriser la complexité induite par l'intégration de plus en plus importante de technologies de l'information et de la communication au cœur même des processus de production et des produits. Plus précisément, notre travail porte sur l'intégration d'approches méthodologiques, issues du Génie Automatique, et de modèles formels, issus du Génie Informatique et de l'Automatique des Systèmes à Evénements Discrets afin de garantir, a priori, le respect des exigences formulées par les utilisateurs. Notre contribution porte sur deux axes. Le premier concerne l'intégration de techniques de synthèse de la commande dans un processus d'automatisation, incluant les phases de modélisation et de génération d'un code implantable, et leur application à la reconfiguration de systèmes manufacturiers contrôlés par le produit. Le second est basé sur le raffinement formel ou semi-formel de modèles pour identifier et structurer les exigences exprimées à un niveau " système " puis les allouer et les projeter sur une architecture de fonctions, de composants ou d'équipements. Ces travaux ont été initiés dans le cadre de notre thèse en réponse aux besoins de R&D industriels de la Direction des Etudes & Recherche d'EDF, puis ont été poursuivis avec une cible relative aux systèmes manufacturiers et validés dans le cadre de collaborations industrielles variées.
16

Plumejeaud, Christine. "Modèles et méthodes pour l'information spatio-temporelle évolutive." Phd thesis, Université de Grenoble, 2011. http://tel.archives-ouvertes.fr/tel-00630984.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Cette thèse se situe dans le domaine de la modélisation spatio-temporelle, et nos travaux portent plus particulièrement sur la gestion de l'information statistique territoriale. Aujourd'hui, la mise à disposition d'un grand volume d'informations statistiques territoriales par différents producteurs (Eurostat, l'INSEE, l'Agence Européenne de l'Environnement, l'ONU, etc.) offre une perspective d'analyses riches, permettant de combiner des données portant sur des thématiques diverses (économiques, sociales, environnementales), à des niveaux d'étude du territoire multiples : du local (les communes) au global (les états). Cependant, il apparaît que les supports, les définitions, les modalités de classification, et le niveau de fiabilité de ces données ne sont pas homogènes, ni dans l'espace, ni dans le temps. De ce fait, les données sont difficilement comparables. Cette hétérogénéité est au cœur de notre problématique, et pour lui faire face, c'est-à-dire l'appréhender, la mesurer et la contrôler, nous faisons dans cette thèse trois propositions pour permettre in fine une exploitation avisée de ce type de données. La première proposition a pour cible le support de l'information statistique territoriale, et cherche à rendre compte à la fois de son caractère évolutif et de son caractère hiérarchique. La deuxième proposition traite du problème de variabilité sémantique des valeurs statistiques associées au support, au moyen de métadonnées. Nous proposons un profil adapté du standard ISO 19115, facilitant l'acquisition de ces métadonnées pour des producteurs de données. La troisième proposition explore la mise à disposition d'outils pour analyser et explorer ces informations dans un mode interactif. Nous proposons une plate-forme dédiée aux analyses statistiques et visant à repérer des valeurs exceptionnelles (outliers en anglais), et à les mettre en relation avec leur origine, et les modalités de leur production.
17

Mercier, Sophie. "Modèles stochastiques et méthodes numériques pour la fiabilité." Habilitation à diriger des recherches, Université Paris-Est, 2008. http://tel.archives-ouvertes.fr/tel-00368100.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
En premier lieu, nous proposons, étudions et optimisons différentes politiques de maintenance pour des systèmes réparables à dégradation markovienne ou semi-markovienne, dont les durées de réparation suivent des lois générales.
Nous nous intéressons ensuite au remplacement préventif de composants devenus obsolescents, du fait de l'apparition de nouveaux composants plus performants. Le problème est ici de déterminer la stratégie optimale de remplacement des anciens composants par les nouveaux. Les résultats obtenus conduisent à des stratégies très différentes selon que les composants ont des taux de panne constants ou non.
Les travaux suivants sont consacrés à l'évaluation numérique de différentes quantités fiabilistes, les unes liées à des sommes de variables aléatoires indépendantes, du type fonction de renouvellement par exemple, les autres liées à des systèmes markoviens ou semi-markoviens. Pour chacune de ces quantités, nous proposons des bornes simples et aisément calculables, dont la précision peut être ajustée en fonction d'un pas de temps. La convergence des bornes est par ailleurs démontrée, et des algorithmes de calcul proposés.
Nous nous intéressons ensuite à des systèmes hybrides, issus de la fiabilité dynamique, dont l'évolution est modélisée à l'aide d'un processus de Markov déterministe par morceaux (PDMP). Pour de tels systèmes, les quantités fiabilistes usuelles ne sont généralement pas atteignables analytiquement et doivent être calculées numériquement. Ces quantités s'exprimant à l'aide des lois marginales du PDMP (les lois à t fixé), nous nous attachons plus spécifiquement à leur évaluation. Pour ce faire, nous commençons par les caractériser comme unique solution d'un système d'équations intégro-différentielles. Puis, partant de ces équations, nous proposons deux schémas de type volumes finis pour les évaluer, l'un explicite, l'autre implicite, dont nous démontrons la convergence. Nous étudions ensuite un cas-test issu de l'industrie gazière, que nous modélisons à l'aide d'un PDMP, et pour lequel nous calculons différentes quantités fiabilistes, d'une part par méthodes de volumes finis, d'autre part par simulations de Monte-Carlo. Nous nous intéressons aussi à des études de sensibilité : les caractéristiques d'un PDMP sont supposées dépendre d'une famille de paramètres et le problème est de comparer l'influence qu'ont ces différents paramètres sur un critère donné, à horizon fini ou infini. Cette étude est faite au travers des dérivées du critère d'étude par rapport aux paramètres, dont nous démontrons l'existence et que nous calculons.
Enfin, nous présentons rapidement les travaux effectués par Margot Desgrouas lors de sa thèse consacrée au comportement asymptotique des PDMP, et nous donnons un aperçu de quelques travaux en cours et autres projets.
18

Dia, Baye Moussa. "Méthodes et modèles d'évaluation d'options avec dividende stochastique." Paris 1, 2007. http://www.theses.fr/2007PA010035.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les prix d'options dépendent de plusieurs facteurs aléatoires. Cette thèse étudie l'évaluation des options lorsque l'actif sousjacent verse un dividende à un taux stochastique. On suppose que le taux de dividende est un processus de diffusion homogène au temps. Dans ce cadre, on développe différentes approches d'évaluation que l'on illustre dans plusieurs modèles à dividende stochastique spécifiés. On effectue aussi une étude empirique de la performance de ces modèles.
19

Dumas, Laurent. "Méthodes mathématiques et numériques pour les modèles cinétiques." Paris 7, 1995. http://www.theses.fr/1995PA077018.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Le theme central de la these concerne l'analyse mathematique et numerique des equations aux derivees partielles modelisant le transport de particules. On peut y distinguer trois parties: a. Analyse asymptotique des problemes de billard: plusieurs resultats pour les billards dispersifs de type bunimovitch-sinai sont obtenus avec des techniques d'edp. Il s'agit principalement de deux theoremes d'approximation par la diffusion et de majoration du libre parcours moyen dans un cadre tres general (pour tout billard periodique partiellement diffusif ou absorbant). B. Homogeneisation des equations de transport stochastiques. C. Methodes de monte carlo pour l'equation de boltzmann: divers problemes lies a la simulation numerique de l'equation de boltzmann sont abordes a travers plusieurs exemples de validation et d'applications industrielles dans le domaine spatial
20

Lefèvre, Marie. "Processus unifié pour la personnalisation des activités pédagogiques : méta-modèle, modèles et outils." Phd thesis, Université Claude Bernard - Lyon I, 2009. http://tel.archives-ouvertes.fr/tel-00625465.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Cette thèse en informatique se situe dans le domaine des Environnements Informatiques pour l'Apprentissage Humain (EIAH). Dans ce cadre, nous avons abordé la question de la personnalisation de l'apprentissage. Nos travaux de recherche consistaient à identifier un processus qui permette à la fois de personnaliser des séances de travail sur papier et des séances de travail sur des logiciels pédagogiques. Nous souhaitions que ce processus permette de prendre en compte les spécificités de chaque apprenant en s'appuyant sur son profil, mais qu'il prenne également en compte les buts et les habitudes pédagogiques des enseignants. Enfin, nous souhaitions que ce processus soit implémentable dans un système externe aux logiciels à personnaliser. Notre problématique s'est donc décomposée en trois points : comment exploiter les profils d'apprenants pour prendre en compte les individualités des apprenants ? Comment adapter une activité pour prendre en compte les besoins et habitudes pédagogiques d'un enseignant ? Et enfin, comment attribuer une activité à un apprenant ? Pour répondre au premier point, nous avons proposé le modèle cPMDL. Ce complément du langage de modélisation des profils PMDL permet de contraindre les profils des apprenants afin de sélectionner ceux ayant les caractéristiques requises par les contraintes. cPMDL nous permet donc d'exploiter les informations contenues dans les profils au sein du processus de personnalisation. Pour répondre au deuxième point, nous avons proposé l'approche GEPPETO. Cette approche s'appuie sur des modèles et des processus génériques permettant d'adapter les activités en fonction des intentions pédagogiques des enseignants grâce à la définition de contraintes sur les activités. Nous avons décliné cette approche pour permettre l'adaptation des activités papier (GEPPETOP), ainsi que pour l'adaptation des activités logicielles et de la configuration des environnements qui les supportent (GEPPETOS). Pour répondre au troisième point, nous avons proposé le modèle PERSUA2 qui permet de lier les contraintes sur profils de cPMDL aux contraintes sur activités de GEPPETO. Ces liens, nommés règles d'affectation, sont ensuite hiérarchisés selon leur degré de priorité pour former une stratégie pédagogique qui sera associée { un ou plusieurs contextes d'utilisation. Nous avons mis en oeuvre ces différentes contributions théoriques dans Adapte, un module de l'environnement informatique du projet PERLEA. Le rôle de cet environnement est d'assister l'enseignant dans la gestion de profils créés par l'enseignant lui-même ou issus de logiciels pédagogiques. Adapte est l'une des exploitations possibles des profils : le module réalisé permet de fournir à chaque apprenant des activités adaptées à son profil tout en respectant les choix pédagogiques de son enseignant. Ces activités peuvent être des activités papier proposées par le système ou des activités logicielles personnalisées par Adapte, mais effectuées dans un autre EIAH. Ce module, pleinement opérationnel, a montré la faisabilité technique de nos contributions théoriques et nous a permis de conduire des mises à l'essai auprès d'enseignants
21

Delomier, Florent. "Jeux pédagogiques collaboratifs situés : conception et mise en oeuvre dirigées par les modèles." Phd thesis, Ecole Centrale de Lyon, 2013. http://tel.archives-ouvertes.fr/tel-00995808.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Un jeu pédagogique constitue une déclinaison relative à l'apprentissage du concept de jeu sérieux (serious game). Ce type d'outil permet la ludification (gamification) de l'activité afin d'utiliser des éléments de jeu dans un contexte non ludique et conduit à catalyser l'attention, faire accroître l'engagement et augmenter la motivation des joueurs-apprenants dans les situations d'apprentissage. Les jeux pédagogiques reposent sur la mise en situation et l'immersion des apprenants, utilisant les ressorts ludiques dans des simulations axées vers la résolution de problèmes. Parmi des recherches antérieures, certains retours d'expériences font écho d'une trop grande artificialité de l'activité notamment par manque de contextualisation de l'apprentissage dans l'environnement d'utilisation des connaissances apprises. Nous avons proposé la mise en place un environnement mixte (physique et numérique) et l'utilisation de techniques collaboratives pour raffiner l'approche pédagogique. Ces orientations nous ont menés à la mise en place de ce que nous appelons des "Jeux Pédagogiques Collaboratifs Situés " (JPCS). Les deux questions de recherche qui nous ont été posées dans le cadre du projet SEGAREM et qui sont devenues les nôtres sont : 1/ comment accompagner les jeux sérieux par l'approche Réalité Augmentée (RA) et l'approche Interface Tangible (IT)? 2/ comment rendre la conception et la mise en œuvre des JPCS (Jeux Pédagogiques Collaboratifs Situés) plus explicite et plus systématique ? Les réponses que nous présentons dans cette thèse sont les suivantes : 1/ la conception et la mise en œuvre des pupitres interactifs supportant des objets réels augmentés, associés à un protocole de communication existant, proposant un support générique des techniques d'interaction détectée et de prise en compte du contexte physique d'utilisation ; 2/ une approche de production de JPCS se situant après l'étape de scénarisation ludo-pédagogique qui constitue notre cahier des charges. Nous avons basé notre approche sur des modèles pour permettre un support d'expression qui précise les caractéristiques des JPCS. Ces modèles sont soutenus par des éditeurs contextuels et produisent comme résultat des fichiers de descriptions en XML. La projection des descriptions obtenues sur une architecture générique d'exécution du JPCS permet une spécialisation pour obtenir une version exécutable. Dans les six modèles, certains sont adaptés des travaux antérieurs de l'équipe, d'autres issues de la littérature et les derniers sont directement proposés ici. Ces six modèles décrivent l'activité (un modèle d'orchestration de l'activité et un modèle de tâches), la structure de différents environnements, l'état initial de l'environnement et les conditions nécessaires d'un état final et les interactions possibles entre les joueurs et l'environnement. Nos travaux tant sur les pupitres que sur les modèles et le support d'exécution ont été concrétisés dans la mise en place de Lea(r)nIt. Ce JPCS avait pour but de consolider des acquis méthodologiques en Lean Manufacturing par l'utilisation et l'optimisation d'une chaîne de production simulée sur pupitres (supportant interactions tactiles, interactions tangibles et pouvant être assemblés) et sur téléphones mobiles (permettant la mobilité des joueurs-apprenants).
22

Courrieu, Pierre. "Quelques modèles et méthodes pour l'étude de la cognition." Habilitation à diriger des recherches, Université de Provence - Aix-Marseille I, 2011. http://tel.archives-ouvertes.fr/tel-00634483.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Dossier de travaux incluant un échantillon de 12 publications sur les thèmes suivants: - Perception des lettres - Modèles de codage de données - Modèles de codage d'images - Réseaux de neurones et apprentissage supervisé - Méthodes de calcul des paramètres de modèles - Méthodes de validation de modèles et bases de données comportementales
23

Kozhemyak, Anastasia. "Modèles mathématiques et méthodes de reconstruction en imagerie médicale." Phd thesis, Ecole Polytechnique X, 2008. http://pastel.archives-ouvertes.fr/pastel-00004165.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
L'apparition de techniques avancées en imagerie a amélioré de manière significative la qualité de la surveillance médicale des patients. Les modalités d'imagerie non-invasives permettent aux médecins de faire des diagnostics plus précis et plus précoces et de prescrire des modes de traitement plus performants et plus justes. De multiples modalités d'imagerie sont employées actuellement ou sont en cours d'étude. Dans cette thèse, nous étudions trois techniques émergentes d'imagerie biomédicale : • imagerie magnéto-acoustique; • imagerie thermographique; • endotomographie par impédance électrique. Pour chacune de ces trois techniques, nous proposons des modèles mathématiques et nous présentons des nouvelles méthodes de reconstruction en imagerie médicale.
24

Kaouane, Yassine. "Méthodes tangentielles pour les réductions de modèles et applications." Thesis, Littoral, 2018. http://www.theses.fr/2018DUNK0501/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les simulations à grande dimension jouent un rôle crucial dans l'étude d'une grande variété de phénomènes physiques complexes, entraînant souvent des demandes écrasantes sur les ressources informatiques. La gestion de ces demandes constitue la principale motivation pour la réduction du modèle : produire des modèles de commande réduite plus simples, qui permettent une simulation plus rapide et moins coûteuse tout en se rapprochant avec précision du comportement du modèle d'origine. La présence des systèmes avec multiples entrées et multiples sorties (MIMO) rend le processus de réduction encore plus difficile. Dans cette thèse, nous nous intéressons aux méthodes de réduction de modèles à grande dimension en utilisant la projection sur des sous-espaces de Krylov tangentielles. Nous nous penchons sur le développement de techniques qui utilisent l'interpolation tangentielle. Celles-ci présentent une alternative efficace et intéressante à la troncature équilibrée qui est considérée comme référence dans le domaine et tout particulièrement la réduction pour les systèmes linéaire à temps invariants. Enfin, une attention particulière sera portée sur l'élaboration de nouveaux algorithmes efficaces et sur l'application à des problèmes pratiques
Large-scale simulations play a crucial role in the study of a great variety of complex physical phenomena, leading often to overwhelming demands on computational resources. Managing these demands constitutes the main motivation for model reduction : produce simpler reduced-order models, which allow for faster and cheaper simulation while accurately approximating the behaviour of the original model. The presence of multiple inputs and outputs (MIMO) systems, makes the reduction process even more challenging. In this thesis we are interested in methods of reducing large-scale models, using projection on tangential Krylov subspaces. We are looking at the development of techniques using tangential interpolation. These present an effective and interesting alternative to the balanced truncation which is considered as a reference in the field and especially for the reduction of linear time invariant systems. Finally, special attention will be focused on the development of new efficient algorithms and application to practical problems
25

Rottenberg, Sam. "Modèles, méthodes et outils pour les systèmes répartis multiéchelles." Thesis, Evry, Institut national des télécommunications, 2015. http://www.theses.fr/2015TELE0003/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les systèmes informatiques sont des systèmes de plus en plus complexes, répartis sur plusieurs niveaux d’infrastructures des Technologies de l’Information et de la Communication (TIC). Ces systèmes sont parfois appelés des systèmes répartis multiéchelles. Le terme « multiéchelle » peut qualifier des systèmes répartis extrêmement variés suivant les points de vue dans lesquels ils sont caractérisés, comme la dispersion géographique des entités, la nature des équipements qui les hébergent, les réseaux sur lesquels elles sont déployées, ou encore l’organisation des utilisateurs. Pour une entité d’un système multiéchelle, les technologies de communication, les propriétés non fonctionnelles (en termes de persistance ou de sécurité), ou les architectures à favoriser, varient suivant la caractérisation multiéchelle pertinente définie ainsi que l’échelle à laquelle est associée l’entité. De plus, des architectures ad hoc de tels systèmes complexes sont coûteuses et peu durables. Dans cette thèse, nous proposons un framework de caractérisation multiéchelle, appelé MuSCa. Ce framework inclut un processus de caractérisation fondé sur les concepts de points de vue, dimensions et échelles, permettant de mettre en avant, pour chaque système complexe étudié, ses caractéristiques multiéchelles. Ces concepts constituent le cœur d’un métamodèle dédié. Le framework que nous proposons permet aux concepteurs de systèmes répartis multiéchelles de partager une taxonomie pour qualifier chaque système. Le résultat d’une caractérisation est un modèle à partir duquel le framework produit des artefacts logiciels qui apportent, à l’exécution, la conscience des échelles aux entités du système
Computer systems are becoming more and more complex. Most of them are distributed over several levels of Information and Communication Technology (ICT) infrastructures. These systems are sometimes referred to as multiscale systems. The word “multiscale” may qualify extremely various distributed systems according to the viewpoints in which they are characterized, such as the geographic dispersion of the entities, the nature of the hosting devices, the networks they are deployed on, or the users’ organization. For one entity of a multiscale system, communication technologies, non-functional properties (in terms of persistence or security) or architectures to be favored may vary depending on the relevant multiscale characterization defined for the system and on the scale associated to the entity. Moreover, ad hoc architectures of such complex systems are costly and non-sustainable. In this doctoral thesis, we propose a multiscale characterization framework, called MuSCa. The framework includes a characterization process based on the concepts of viewpoints, dimensions and scales, which enables to put to the fore the multiscale characteristics of each studied system. These concepts constitute the core of a dedicated metamodel. The proposed framework allows multiscale distributed systems designers to share a taxonomy for qualifying each system. The result of a characterization is a model from which the framework produces software artifacts that provide scale-awareness to the system’s entities at runtime
26

Libouban, Hélène. "Modèles animaux d'hyper-résorption osseuse : méthodes d'étude et physiopathologie." Angers, 2003. http://www.theses.fr/2003ANGE0502.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Plusieurs modèles animaux d'hyper-résorption osseuse ont été étudiés : modèle du rat orchidectomisé (ORX), modèle murin de myélome (5T2MM) combiné ou non à une ovariectomie (OVX). Nous avons évalué la performance et la sensibilité de différentes méthodes d'étude de la perte osseuse, et caractérisé la physiopathologie de l'hyper-résorption. Des mesures densitométriques (DXA) du contenu minéral osseux (CMO) d'os de rats contrôles, ont été obtenues avec une bonne reproductibilité et une bonne exactitude sur 3 générations de densitomètres, avec cependant une influence du poids de l'os sur le CMO. Des mesures de CMO, effectuées sur des os de rats ORX et ORX traités par bisphosphonate, ont montré qu' une large distribution du CMO n'altère pas l'exactitude des mesures de DXA. Cette méthode est cependant moins sensible que l'histomorphométrie pour apprécier le degré de perte osseuse dans le modèle du rat ORX. Chez le rat ORX, l'histomorphométrie a mis en évidence une altération précoce de la microarchitecture osseuse précédent la perte osseuse. Dans le modèle murin de myélome 5T2MM, l'hyper-résorption se traduit par une disparition de l'os trabéculaire et la présence de nombreuses perforations corticales. Nous avons élaboré un modèle associant OVX au modèle 5T2MM. L'OVX induit un hyper-remodelage associé à une augmentation de la progression tumorale et une apparition plus précoce des lésions ostéolytiques. Ce résultat pourrait expliquer le passage brutal d'un myélome indolent à un myélome agressif chez l'homme lorsqu'une modification du niveau de remodelage survient
Several animal models, with a high bone resorption level, were studied : the orchidectomized (ORX) rat model, the 5T2MM murine myeloma model with or without ovariectomy (OVX). We have first examined reproducibility, accuracy and sensibility of several methods used to evaluate bone loss. Then, we have studied the physiopathology of high remodeling rate in these animal models. Densitometric measurements (DXA) of bone mineral content (BMC) were done in control rats. Precise and accurate BMC measurements were obtained on 3 different generations of densitometer. However, discrepancy of BMC was dependent on the net weight of the bone. BMC measurements were performed on bone of ORX rat and ORX treated with a bisphosphonate. Accuracy was not affected by a large distribution of BMC values. DXA appeared to be less sensitive than bone histomorphometry to appreciate bone loss in the ORX rat model. In the ORX rat, histomorphometry evidenced alteration of trabecular bone architecture before bone loss occured. In the 5T2MM murine myeloma model, the increase of bone resorption induced disaparition of trabecular bone and numerous cortical perforations. We have proposed a combined animal model in which OVX was performed in mice prior inoculation of 5T2MM cells. OXV induced an increase bone remodeling which was associated with an increase of tumor growth and earlier development of osteolytic lesions. This result could explain some sudden burden of indolent MM into aggressive MM in man when a modification of mode remodeling happens
27

Michel, Johan. "Modèles d'activités pédagogiques et de support à l'interaction pour l'apprentissage d'une langue : le système Sampras." Phd thesis, Université du Maine, 2006. http://tel.archives-ouvertes.fr/tel-00090250.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Nos recherches s'inscrivent dans le domaine des EIAH et plus particulièrement dans les recherches menées sur la conception d'environnements d'apprentissage des langues étrangères. Nous nous intéressons à la conception et au support d'activités interactives au sein d'un micromonde dédié à l'apprentissage du français langue étrangère. L'idée sur laquelle repose la thèse est que l'apprentissage de la langue peut prendre place dans l'interaction entre un apprenant et un agent conversationnel. L'usage de la langue étrangère est mis en jeu au travers de la simulation d'une tâche applicative à accomplir dans un monde virtuel, réalisation impliquant la communication entre un apprenant et son partenaire virtuel. Nous élaborons des modèles qui décrivent les activités pédagogiques mises en place et le support aux interactions qu'elles génèrent. Ces modèles se décrivent selon trois dimensions qui permettent de caractériser la conception : tâche, interaction et langue. La description de la dimension tâche recouvre la description des tâches pédagogiques proposées aux apprenants, des tâches interactives créées à partir des spécifications des tâches pédagogiques et de la tâche applicative dont la résolution sert de prétexte à l'interaction. La description de la dimension interaction présente les types d'interaction attendus entre l'apprenant et son partenaire au cours des activités pédagogiques et le modèle d'interaction qui articule ces types d'interaction. La présentation de la dimension langue décrit le modèle du lexique, les mécanismes d'analyse des énoncés de l'apprenant et de génération des réactions du partenaire. Ces modèles ont été mis en œuvre lors de l'implémentation d'un prototype. Ce prototype a été expérimenté auprès de débutants en français langue étrangère.
28

Lourdel, Nathalie. "Méthodes pédagogiques et représentation de la compréhension du développement durable : application à la formation des élèves ingénieurs." Phd thesis, Ecole Nationale Supérieure des Mines de Saint-Etienne, 2005. http://tel.archives-ouvertes.fr/tel-00781854.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
L'évolution des réflexions et la prise en compte du développement durable à tous les niveaux rendent indispensable l'intégration de ce concept dans les formations des élèves ingénieurs. L'intérêt grandissant pour cette thématique ne doit cependant pas faire oublier ses particularités : la dimension évolutive, la complexité, les incertitudes, les divergences de points de vue, la difficulté à le transformer en approche pragmatique... L'ensemble de ces éléments nous a conduit à émettre deux hypothèses. La première est que le concept de développement durable ne peut être assimilé à une connaissance supplémentaire à acquérir, il correspond à une prise de conscience et à un changement de paradigme. La seconde est que la modification des enseignements visant à une intégration du développement durable ne peut se faire par simple implémentation, elle nécessite une réflexion pédagogique, une innovation ciblée. La validation de ces hypothèses nous a amené à définir des objectifs pédagogiques et à proposer l'utilisation d'approches basées sur les pédagogies innovantes. L'étude menée s'est focalisée plus particulièrement sur l'utilisation des jeux de rôles. Ce type d'approche s'est avérée être une des possibilités pour aider l'étudiant à aborder de manière systémique et concrète les principes liés au développement durable. Pour répondre à une problématique d'évaluation et d'identification des contenus cognitifs associés au concept de développement durable, une méthode d'analyse basée sur l'utilisation des cartes cognitives a été développée. L'utilisation des cartes cognitives est apparue pertinente, en effet, cette forme de représentation schématique demandée aux élèves leur a permis d'avoir une vision holistique et de réfléchir aux interactions entre les différents éléments constitutifs du développement durable. Cette méthode présente plusieurs potentialités d'évolution : outil d'amélioration des formations, aide aux réflexions métacognitives ou encore support de réflexion collective sur le développement durable.
29

Kohler, Rambour Chantal. "Apport des nouvelles méthodes pédagogiques à l'enseignement médical : histologie : auto-formation et auto-évaluation en histologie embryologie." Nancy 1, 1990. http://www.theses.fr/1990NAN10542.

Full text
APA, Harvard, Vancouver, ISO, and other styles
30

Medina, Juliette. "Modèles et méthodes d'optimisation pour la mutualisation des chaînes logistiques." Thesis, Nantes, Ecole des Mines, 2016. http://www.theses.fr/2016EMNA0299/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Cette thèse a pour but d’apporter des solutions méthodologiques pour la mutualisation des transports entre les fournisseurs et les plateformes de la grande distribution. Cette mutualisation permet en effet de réduire les coûts, les émissions de CO2, et d’augmenter la qualité de service. Elle est organisée autour d’un réseau de plateformes de cross-docking appelées Centres de Routage Collaboratifs, développé par la société 4S Network. Nos travaux consistent à modéliser et résoudre à l’aide de techniques de recherche opérationnelle plusieurs problèmes d’optimisation du transport dans le réseau mutualisé. Le verrou scientifique majeur est de résoudre conjointement un problème de plan de chargement (Service Network Design Problem) dans un réseau logistique national, et des problèmes de tournées de véhicules à une échelle régionale. Nous prenons en compte des contraintes additionnelles issues du monde industriel et les tarifs réellement pratiqués par les transporteurs, notamment des coûts non linéaires.Les problèmes d’optimisation résultants sont résolus au moyen de méthodes ditesmatheuristiques, c’est-à-dire combinant des approches exactes telles que la génération de colonnes et des approches (méta)heuristiques telles que la recherche tabou. Les algorithmes développés dans cette thèse ont donné lieu à unoutil logiciel aujourd’hui en exploitation chez 4S Network
The main purpose of this PhD. thesis is to provide methodological solutions for a collaborative transport between suppliers and retail platforms. The outcomes of this collaboration are numerous:cost reduction, greenhouse gas emission reduction and higher quality of service. The network is structured around cross-docking platforms developed by the company 4S Network. We model and solve several optimization problems in this collaborative network, using operationsresearch techniques. The major scientific challenge is to simultaneously solve a Service Network Design Problem in a national logistics network and several Vehicle Routing Problems at regional level. We consider additional constraints and prevailing pricing arising from the carriers, in particular non-linear costs. The resulting optimization problems are solved by matheuristic methods, that combine exact approaches as column generation and (meta)heuristic approaches as tabu search. The algorithms developed in this thesis are the core functions of a software tool developed for 4S network
31

Aknine, Samir. "Modèles et méthodes de coordination dans les systèmes multi-agents." Paris 9, 2000. https://portail.bu.dauphine.fr/fileviewer/index.php?doc=2000PA090078.

Full text
APA, Harvard, Vancouver, ISO, and other styles
32

Soule, Augustin. "Méthodes et modèles de détection d'anomalies dans les réseaux d'opérateurs." Paris 6, 2006. http://www.theses.fr/2006PA066088.

Full text
APA, Harvard, Vancouver, ISO, and other styles
33

Pastori, Claudio. "Modèles et méthodes pour l'analyse de style : approches théoriques et applications empiriques." Paris 10, 2005. http://www.theses.fr/2005PA100008.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
L'analyse de style est considérée, parmi les techniques financières, comme l'une des plus innovantes et des plus intéressantes. Introduite aux Etats-Unis par la publication de deux articles de W. Sharpe en 1988 et 1992, cette technique financière est en train de se répandre en Europe non seulement parmi les investisseurs institutionnels mais aussi parmi les gestionnaires privés. Cette thèse fourni un panorama complet des problématiques liées à l'analyse de style, elle clarifie les différences entre les styles de gestion plus communs, présente les principaux modèles théoriques, et analyse les avantages et les inconvénients de chaque approche. Sont en outre approfondis certains aspects liés à l'interprétation des styles de gestion et à la persistance de la performance de portefeuilles. Dans ce contexte sont présentés tant une extension des méthodologies bayésiennes qu'une application des techniques markoviennes pour [évaluer] la persistance de la performance de portefeuilles
The style analysis is today considered as one of the most innovative and interesting financial techniques. Introduced in the United States through the publication of two articles by W. Sharpe in 1988 and 1992, this technique for classifying financial assets is being used in Europe not only by institutional investors but also by private managers. This Ph. D. Thesis provides a full panorama of the issues linked to the style analysis, explaining the differences between the more commonly used management styles, presenting the principal theories and analyzing advantages and disadvantages of each single approach. Moreover, certain aspects connected to interpreting management styles are covered, as well as the persistence of performance in portfolios. In this respect, the Bayes method for determining the management styles is covered as well as an application of Markov's techniques for the creation of a synthetic indicator used for evaluating the persistence of performance of portfolios
34

Lemius, Brigitte. "Ecrire au CDI ? : analyse d'une pratique en EREA : enjeux identitaires et pédagogiques." Nancy 2, 2000. http://www.theses.fr/2000NAN21003.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les TICE (Nouvelles technologies de l'Information et de la Communication à l'Ecole), et en particulier l'hypertexte, offrent, selon le discours officiel, un espoir de réussite pour les élèves en difficulté. La méthodologie développée ici repose sur un dispositif d'atelier d'écriture au CDI (Centre de Documentation et d'Information) d'un EREA (Etablissement Régional d'Enseignement Adapté) pour handicapés moteurs (élèves de CPPN, seconde BEP secrétariat et comptabilité). Le lieu CDI, le public handicapé et l'hypertexte sont des analyseurs. Un logiciel est créé, sa mise en oeuvre produit des effets retours qui modifient la recherche. Elle se centre moins sur l'outil que sur l'homme aux prises avec l'écriture, libérant le sujet existentiel du sujet opératoire. La démarche, qui prend en compte la complexité du terrain où se déploie l'acte éducatif, s'insère dans une approche plurielle. Le regard porté sur les textes produits par les élèves de faible niveau est structuré par l'analyse de pratique de documentaliste. Celle-ci est constitutive du cadre théorique qui reconnaît les savoirs cachés dans l'agir professionnel, autorisant le dépassement des antagonismes chercheur/praticien. La dimension hypertexte, qu'elle soit issue d'une utilisation de l'ordinateur ou du stylo est une piste qui, développant l'écriture de l'expérience de vie, devient une offre de passage possible de l'hétéroformation à l'autoformation. Le texte faible n'apparaît plus dans ses seules caractéristiques immédiates, disqualifiantes. Il appelle une théorie qui reste à établir mais s'avère valide du point de vue de la formation. L'hypermot est un marquage qui ouvre sur d'autres espaces et s'inscrit, pour chacun des élèves, dans un univers personnel qu'il révèle aussi. Le rôle des documentalistes peut se trouver redéfini, dans une forme de médiation à dimension heuristique, entre les métiers d'élève et d'adolescent, proche de l'aléatoire, disponible à la découverte
According to the French education officials, the Information and Communication Technologies for Schools - hypertext in particular - represent tools of success for pupils who have difficulties and give them new possibilities. Our methodology consists in writing sessions for pupils of three classes - one CPPN, i. E. A prevocational class, one "seconde BEP secrétariat", i. E. A secretarial studies fifth-form and one "seconde BEP comptabilité", i. E. An accountancy studies fifth-form. The writing sessions take place in a CDI (i. E. Centre of Documentation and Information) of an EREA (i. E. Regional secondary school for handicapped pupils). The analysis process uses three entities : the place in itself, that is the CDI, the spastic public and the hypertext software. The use of hypertext software produces reactions and triggers modifications in our research as was previously intended. The complexity of a research situation at school with an educational act obliges to refer to a plural approach of theories. In particular the Practical Analysis is used in my work as a teacher-documentalist because it goes beyond the contradiction between the practitioner and the researcher. Hypertext writing is possible with a computer as well as with a pen. It is a possibility to write about one's own life and experience and to reach self-education. Faulty and poor texts are no more disqualified, on the contrary they serve the education of individuals and as such call for a new theory, which has still to be built. The hypertext is a mark created by writing pupils and representing them. The role of the teacher-documentalist can be redefined as a mediation role between the pupil and the adolescent, and is open to heuristic manifestations
35

Courtault, Jean-René. "Logiques de ressources dynamiques : modèles, propriétés et preuves." Electronic Thesis or Diss., Université de Lorraine, 2015. http://www.theses.fr/2015LORR0033.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
En informatique, la notion de ressource est une notion centrale. Nous considérons comme ressource toute entité pouvant être composée ou décomposée en sous-entités. Plusieurs logiques ont été proposées afin de modéliser et d’exprimer des propriétés sur celles-ci, comme la logique BI exprimant des propriétés de partage et de séparation. Puisque les systèmes informatiques manipulent des ressources, la proposition de nouveaux modèles capturant la dynamique de ces ressources, ainsi que la vérification et la preuve de propriétés sur ces modèles, sont des enjeux cruciaux. Dans ce contexte, nous définissons de nouvelles logiques permettant la modélisation logique de la dynamique des ressources, proposant de nouveaux modèles et permettant l’expression de nouvelles propriétés sur cette dynamique. De plus, pour ces logiques, nous proposons des méthodes des tableaux et d’extraction de contre-modèles. Dans un premier temps, nous définissons de nouveaux réseaux de Petri, nommés ß-PN, et proposons une nouvelle sémantique à base de ß-PN pour BI. Puis nous proposons une première extension modale de BI, nommée DBI, permettant la modélisation de ressources ayant des propriétés dynamiques, c’est-à-dire évoluant en fonction de l’état courant d’un système. Ensuite, nous proposons une logique, nommée DMBI, modélisant des systèmes manipulant/produisant/consommant des ressources. Par ailleurs, nous proposons une nouvelle logique (LSM) possédant de nouvelles modalités multiplicatives (en lien avec les ressources). Pour finir, nous introduisons la séparation au sein des logiques épistémiques, obtenant ainsi une nouvelle logique ESL, exprimant de nouvelles propriétés épistémiques
In computer science, the notion of resource is a central concern. We consider as a resource, any entity that can be composed or decomposed into sub-entities. Many logics were proposed to model and express properties on these resources, like BI logic, a logic about sharing and separation of resources. As the computer systems manipulate resources, a crucial issue consists in providing new models that capture the dynamics of resources, and also in verifying and proving properties on these models. In this context, we define new logics with new models and new languages allowing to respectively capture and express new properties on the dynamics of resources. Moreover, for all these logics, we also study the foundations of proof search and provide tableau methods and counter-model extraction methods. After defining new Petri nets, called ß-PN, we propose a new semantics based on ß-PN for BI logic, that allows us to show that BI is able to capture a kind of dynamics of resources. After observing that it is necessary to introduce new modalities in BI logic, we study successively different modal extensions of BI. We define a logic, called DBI, that allows us to model resources having dynamic properties, meaning that they evolve during the iterations of a system. Then, we define a logic, called DMBI, that allows us to model systems that manipulate/produce/consume resources. Moreover, we define a new modal logic, called LSM, having new multiplicative modalities, that deals with resources. Finally, we introduce the notion of separation in Epistemic Logic, obtaining a new logic, called ESL, that models and expresses new properties on agent knowledge
36

Infante, Acevedo José Arturo. "Méthodes et modèles numériques appliqués aux risques du marché et à l'évaluation financière." Phd thesis, Université Paris-Est, 2013. http://tel.archives-ouvertes.fr/tel-00937131.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Méthodes et modèles numériques appliqués aux risques du marché et à l'évaluation financière Ce travail de thèse aborde deux sujets : (i) L'utilisation d'une nouvelle méthode numérique pour l'évaluation des options sur un panier d'actifs, (ii) Le risque de liquidité, la modélisation du carnet d'ordres et la microstructure de marché. Premier thème : Un algorithme glouton et ses applications pour résoudre des équa- tions aux dérivées partielles Beaucoup de problèmes d'intérêt dans différents domaines (sciences des matériaux, finance, etc) font intervenir des équations aux dérivées partielles (EDP) en grande dimension. L'exemple typique en finance est l'évaluation d'une option sur un panier d'actifs, laquelle peut être obtenue en résolvant l'EDP de Black-Scholes ayant comme dimension le nombre d'actifs considérés. Nous proposons d'é- tudier un algorithme qui a été proposé et étudié récemment dans [ACKM06, BLM09] pour résoudre des problèmes en grande dimension et essayer de contourner la malédiction de la dimension. L'idée est de représenter la solution comme une somme de produits tensoriels et de calculer itérativement les termes de cette somme en utilisant un algorithme glouton. La résolution des EDP en grande di- mension est fortement liée à la représentation des fonctions en grande dimension. Dans le Chapitre 1, nous décrivons différentes approches pour représenter des fonctions en grande dimension et nous introduisons les problèmes en grande dimension en finance qui sont traités dans ce travail de thèse. La méthode sélectionnée dans ce manuscrit est une méthode d'approximation non-linéaire ap- pelée Proper Generalized Decomposition (PGD). Le Chapitre 2 montre l'application de cette méthode pour l'approximation de la solution d'une EDP linéaire (le problème de Poisson) et pour l'approxima- tion d'une fonction de carré intégrable par une somme des produits tensoriels. Un étude numérique de ce dernier problème est présenté dans le Chapitre 3. Le problème de Poisson et celui de l'approxima- tion d'une fonction de carré intégrable serviront de base dans le Chapitre 4 pour résoudre l'équation de Black-Scholes en utilisant l'approche PGD. Dans des exemples numériques, nous avons obtenu des résultats jusqu'en dimension 10. Outre l'approximation de la solution de l'équation de Black-Scholes, nous proposons une méthode de réduction de variance des méthodes Monte Carlo classiques pour évaluer des options financières. Second thème : Risque de liquidité, modélisation du carnet d'ordres, microstructure de marché Le risque de liquidité et la microstructure de marché sont devenus des sujets très importants dans les mathématiques financières. La dérégulation des marchés financiers et la compétition entre eux pour attirer plus d'investisseurs constituent une des raisons possibles. Les règles de cotation sont en train de changer et, en général, plus d'information est disponible. En particulier, il est possible de savoir à chaque instant le nombre d'ordres en attente pour certains actifs et d'avoir un historique de toutes les transactions passées. Dans ce travail, nous étudions comment utiliser cette information pour exécuter de facon optimale la vente ou l'achat des ordres. Ceci est lié au comportement des traders qui veulent minimiser leurs coûts de transaction. La structure du carnet d'ordres (Limit Order Book) est très complexe. Les ordres peuvent seulement être placés dans une grille des prix. A chaque instant, le nombre d'ordres en attente d'achat (ou vente) pour chaque prix est enregistré. Pour un prix donné, quand deux ordres se correspondent, ils sont exécutés selon une règle First In First Out. Ainsi, à cause de cette complexité, un modèle exhaustif du carnet d'ordres peut ne pas nous amener à un modèle où, par exemple, il pourrait être difficile de tirer des conclusions sur la stratégie optimale du trader. Nous devons donc proposer des modèles qui puissent capturer les caractéristiques les plus importantes de la structure du carnet d'ordres tout en restant possible d'obtenir des résultats analytiques. Dans [AFS10], Alfonsi, Fruth et Schied ont proposé un modèle simple du carnet d'ordres. Dans ce modèle, il est possible de trouver explicitement la stratégie optimale pour acheter (ou vendre) une quantité donnée d'actions avant une maturité. L'idée est de diviser l'ordre d'achat (ou de vente) dans d'autres ordres plus petits afin de trouver l'équilibre entre l'acquisition des nouveaux ordres et leur prix. Ce travail de thèse se concentre sur une extension du modèle du carnet d'ordres introduit par Alfonsi, Fruth et Schied. Ici, l'originalité est de permettre à la profondeur du carnet d'ordres de dépendre du temps, ce qui représente une nouvelle caractéristique du carnet d'ordres qui a été illustré par [JJ88, GM92, HH95, KW96]. Dans ce cadre, nous résolvons le problème de l'exécution optimale pour des stratégies discrétes et continues. Ceci nous donne, en particulier, des conditions suffisantes pour exclure les manipulations des prix au sens de Huberman et Stanzl [HS04] ou de Transaction- Triggered Price Manipulation (voir Alfonsi, Schied et Slynko). Ces conditions nous donnent des intu- itions qualitatives sur la manière dont les teneurs de marché (market makers) peuvent créer ou pas des manipulations des prix.
37

Ben, Hamed Mahé. "Evaluation de la congruence entre évolutions génétique, morphologique et linguistique : modèles et méthodes." Paris 6, 2004. http://www.theses.fr/2004PA066369.

Full text
APA, Harvard, Vancouver, ISO, and other styles
38

Infante, Acevedo José Arturo. "Méthodes et modèles numériques appliqués aux risques du marché et à l’évaluation financière." Thesis, Paris Est, 2013. http://www.theses.fr/2013PEST1086/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Ce travail de thèse aborde deux sujets : (i) L'utilisation d'une nouvelle méthode numérique pour l'évaluation des options sur un panier d'actifs, (ii) Le risque de liquidité, la modélisation du carnet d'ordres et la microstructure de marché. Premier thème : Un algorithme glouton et ses applications pour résoudre des équations aux dérivées partielles. L'exemple typique en finance est l'évaluation d'une option sur un panier d'actifs, laquelle peut être obtenue en résolvant l'EDP de Black-Scholes ayant comme dimension le nombre d'actifs considérés. Nous proposons d'étudier un algorithme qui a été proposé et étudié récemment dans [ACKM06, BLM09] pour résoudre des problèmes en grande dimension et essayer de contourner la malédiction de la dimension. L'idée est de représenter la solution comme une somme de produits tensoriels et de calculer itérativement les termes de cette somme en utilisant un algorithme glouton. La résolution des EDP en grande dimension est fortement liée à la représentation des fonctions en grande dimension. Dans le Chapitre 1, nous décrivons différentes approches pour représenter des fonctions en grande dimension et nous introduisons les problèmes en grande dimension en finance qui sont traités dans ce travail de thèse. La méthode sélectionnée dans ce manuscrit est une méthode d'approximation non-linéaire appelée Proper Generalized Decomposition (PGD). Le Chapitre 2 montre l'application de cette méthode pour l'approximation de la solution d'une EDP linéaire (le problème de Poisson) et pour l'approximation d'une fonction de carré intégrable par une somme des produits tensoriels. Un étude numérique de ce dernier problème est présenté dans le Chapitre 3. Le problème de Poisson et celui de l'approximation d'une fonction de carré intégrable serviront de base dans le Chapitre 4 pour résoudre l'équation de Black-Scholes en utilisant l'approche PGD. Dans des exemples numériques, nous avons obtenu des résultats jusqu'en dimension 10. Outre l'approximation de la solution de l'équation de Black-Scholes, nous proposons une méthode de réduction de variance des méthodes Monte Carlo classiques pour évaluer des options financières. Second thème : Risque de liquidité, modélisation du carnet d'ordres, microstructure de marché. Le risque de liquidité et la microstructure de marché sont devenus des sujets très importants dans les mathématiques financières. La dérégulation des marchés financiers et la compétition entre eux pour attirer plus d'investisseurs constituent une des raisons possibles. Dans ce travail, nous étudions comment utiliser cette information pour exécuter de façon optimale la vente ou l'achat des ordres. Les ordres peuvent seulement être placés dans une grille des prix. A chaque instant, le nombre d'ordres en attente d'achat (ou vente) pour chaque prix est enregistré. Dans [AFS10], Alfonsi, Fruth et Schied ont proposé un modèle simple du carnet d'ordres. Dans ce modèle, il est possible de trouver explicitement la stratégie optimale pour acheter (ou vendre) une quantité donnée d'actions avant une maturité. L'idée est de diviser l'ordre d'achat (ou de vente) dans d'autres ordres plus petits afin de trouver l'équilibre entre l'acquisition des nouveaux ordres et leur prix. Ce travail de thèse se concentre sur une extension du modèle du carnet d'ordres introduit par Alfonsi, Fruth et Schied. Ici, l'originalité est de permettre à la profondeur du carnet d'ordres de dépendre du temps, ce qui représente une nouvelle caractéristique du carnet d'ordres qui a été illustré par [JJ88, GM92, HH95, KW96]. Dans ce cadre, nous résolvons le problème de l'exécution optimale pour des stratégies discrètes et continues. Ceci nous donne, en particulier, des conditions suffisantes pour exclure les manipulations des prix au sens de Huberman et Stanzl [HS04] ou de Transaction-Triggered Price Manipulation (voir Alfonsi, Schied et Slynko)
This work is organized in two themes : (i) A novel numerical method to price options on manyassets, (ii) The liquidity risk, the limit order book modeling and the market microstructure.First theme : Greedy algorithms and applications for solving partial differential equations in high dimension Many problems of interest for various applications (material sciences, finance, etc) involve high-dimensional partial differential equations (PDEs). The typical example in finance is the pricing of a basket option, which can be obtained by solving the Black-Scholes PDE with dimension the number of underlying assets. We propose to investigate an algorithm which has been recently proposed and analyzed in [ACKM06, BLM09] to solve such problems and try to circumvent the curse of dimensionality. The idea is to represent the solution as a sum of tensor products and to compute iteratively the terms of this sum using a greedy algorithm. The resolution of high dimensional partial differential equations is highly related to the representation of high dimensional functions. In Chapter 1, we describe various linear approaches existing in literature to represent high dimensional functions and we introduce the high dimensional problems in finance that we will address in this work. The method studied in this manuscript is a non-linear approximation method called the Proper Generalized Decomposition. Chapter 2 shows the application of this method to approximate the so-lution of a linear PDE (the Poisson problem) and also to approximate a square integrable function by a sum of tensor products. A numerical study of this last problem is presented in Chapter 3. The Poisson problem and the approximation of a square integrable function will serve as basis in Chapter 4for solving the Black-Scholes equation using the PGD approach. In numerical experiments, we obtain results for up to 10 underlyings. Second theme : Liquidity risk, limit order book modeling and market microstructure. Liquidity risk and market microstructure have become in the past years an important topic in mathematical finance. One possible reason is the deregulation of markets and the competition between them to try to attract as many investors as possible. Thus, quotation rules are changing and, in general, more information is available. In particular, it is possible to know at each time the awaiting orders on some stocks and to have a record of all the past transactions. In this work we study how to use this information to optimally execute buy or sell orders, which is linked to the traders' behaviour that want to minimize their trading cost. In [AFS10], Alfonsi, Fruth and Schied have proposed a simple LOB model. In this model, it is possible to explicitly derive the optimal strategy for buying (or selling) a given amount of shares before a given deadline. Basically, one has to split the large buy (or sell) order into smaller ones in order to find the best trade-off between attracting new orders and the price of the orders. Here, we focus on an extension of the Limit Order Book (LOB) model with general shape introduced by Alfonsi, Fruth and Schied. The additional feature is a time-varying LOB depth that represents a new feature of the LOB highlighted in [JJ88, GM92, HH95, KW96]. We solve the optimal execution problem in this framework for both discrete and continuous time strategies. This gives in particular sufficient conditions to exclude Price Manipulations in the sense of Huberman and Stanzl [HS04] or Transaction-Triggered Price Manipulations (see Alfonsi, Schied and Slynko). The seconditions give interesting qualitative insights on how market makers may create price manipulations
39

Tran, Duc Quynh. "Optimisation non convexe en finance et en gestion de production : modèles et méthodes." Thesis, Metz, 2011. http://www.theses.fr/2011METZ019S/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Cette thèse porte sur la recherche des techniques d’optimisation pour la résolution de certains problèmes importants en deux domaines : gestion de production. Il s’agit des problèmes d’optimisation non convexe de grande dimension. Notre travail est basé sur la programmation DC (Différence de fonctions convexes), DCA (DC algorithmes), la méthode par séparation et évaluation (SE). Cette démarche est motivée par la robustesse et la performance DC et DCA comparée aux autres méthodes. La thèse comprend trois parties : dans la première partie, nous présentons les outils fondamentaux et les techniques essentielles en programmation DC, DCA ainsi que les méthodes par séparation et évaluation. La deuxième partie concerne les problèmes d’optimisation non convexes en gestion de portefeuille. Nous avons étudié deux problèmes : problème min max continu en gestion de portefeuille en présence des contraintes de cardinalité ; une classe des problèmes d’optimisation à deux niveaux et son application en sélection de portefeuille. La troisième partie est consacrée à la recherche sur les problèmes d’optimisation non convexe en gestion de production. Trois problèmes ont été étudiés : minimisation du coût de maintenance comprenant le temps de séjour et la pénalité du retard ; minimisation du coût d’un système de production/stockage multi-étapes en présence de goulot d’étrangement. Détermination des prix de transfert et les politiques de stockage pour une chaîne d’approvisionnement de deux entreprises
This thesis deals with optimization techniques for solving some optimization problems in two domains : portfolio selection and production management. They are large scale non convex optimization problems due to integer variables and/or the non convexity of the objective function. Our approach is based on DC programming and DCA, DC relaxation techniques and the algorithm Branch and Bound. This work is motivated by the robustness and the performance of the DC programming and DCA compared to other methods. The thesis includes three parts : In the first part, we present the fundamental tools and the essential techniques in DC programming, DCA as well as the method Branch and Bound. The second one concerns some non convex optimization problem in portfolio selection. Two following problems are considered : Min max continuous problem with the cardinality constraints in portfolio selection ; A class of bilevel programming problems and its application in portfolio selection. The third part contains some non convex optimization problems in production management. We study three problems : Minimization of the maintenance cost involving the flow time and the tardiness penalty ; Minimization of the cost of multi-stages production/inventory systems with bottleneck ; Determination of transfer prices and inventory policy in supply chain of two enterprises
40

Tran, Duc Quynh. "Optimisation non convexe en finance et en gestion de production : modèles et méthodes." Electronic Thesis or Diss., Metz, 2011. http://www.theses.fr/2011METZ019S.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Cette thèse porte sur la recherche des techniques d’optimisation pour la résolution de certains problèmes importants en deux domaines : gestion de production. Il s’agit des problèmes d’optimisation non convexe de grande dimension. Notre travail est basé sur la programmation DC (Différence de fonctions convexes), DCA (DC algorithmes), la méthode par séparation et évaluation (SE). Cette démarche est motivée par la robustesse et la performance DC et DCA comparée aux autres méthodes. La thèse comprend trois parties : dans la première partie, nous présentons les outils fondamentaux et les techniques essentielles en programmation DC, DCA ainsi que les méthodes par séparation et évaluation. La deuxième partie concerne les problèmes d’optimisation non convexes en gestion de portefeuille. Nous avons étudié deux problèmes : problème min max continu en gestion de portefeuille en présence des contraintes de cardinalité ; une classe des problèmes d’optimisation à deux niveaux et son application en sélection de portefeuille. La troisième partie est consacrée à la recherche sur les problèmes d’optimisation non convexe en gestion de production. Trois problèmes ont été étudiés : minimisation du coût de maintenance comprenant le temps de séjour et la pénalité du retard ; minimisation du coût d’un système de production/stockage multi-étapes en présence de goulot d’étrangement. Détermination des prix de transfert et les politiques de stockage pour une chaîne d’approvisionnement de deux entreprises
This thesis deals with optimization techniques for solving some optimization problems in two domains : portfolio selection and production management. They are large scale non convex optimization problems due to integer variables and/or the non convexity of the objective function. Our approach is based on DC programming and DCA, DC relaxation techniques and the algorithm Branch and Bound. This work is motivated by the robustness and the performance of the DC programming and DCA compared to other methods. The thesis includes three parts : In the first part, we present the fundamental tools and the essential techniques in DC programming, DCA as well as the method Branch and Bound. The second one concerns some non convex optimization problem in portfolio selection. Two following problems are considered : Min max continuous problem with the cardinality constraints in portfolio selection ; A class of bilevel programming problems and its application in portfolio selection. The third part contains some non convex optimization problems in production management. We study three problems : Minimization of the maintenance cost involving the flow time and the tardiness penalty ; Minimization of the cost of multi-stages production/inventory systems with bottleneck ; Determination of transfer prices and inventory policy in supply chain of two enterprises
41

Sai, Kacem. "Modèles à grand nombre de variables internes et méthodes numériques associées." Phd thesis, École Nationale Supérieure des Mines de Paris, 1993. http://pastel.archives-ouvertes.fr/pastel-00001728.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
On étudie une approche de type multimécanimes intermédiaire entre deux classes de modèles: les modèles micromécaniques et les modèles macroscopiques. Le but visé par l'application de ces modèles est d'essayer de reproduire simultanément les phénomènes les plus classiques au sens du comportement des matériaux, mais aussi de faire en sorte que les éléments du comportement généralement moins bien décrits soient également pris en compte. Le couplage entre les variables cinématiques des différents mécanismes permet de décrire: (1) l'effet normal à la vitesse de chargement et l'effet inverse à cette vitesse, (2) l'interaction entre plasticité et fluage, (3) du rochet à haute contrainte moyenne et de l'accommodation ou de l'adaptation quand cette contrainte est moins élevée. Par ailleurs, on s'est intéressé à une méthode d'intégration numérique pour minimiser les temps de calcul dans l'analyse de structures viscoplastique sous chargements cycliques par la méthode des EF. Cette méthode dite de sauts de cycles, est basée sur des pas de calcul qui se chiffrent en nombre de cycles. Cet algorithme a été appliqué à des exemples industriels complexes. La méthode de sauts de cycles permet une diminution du temps de calcul d'un facteur 2 à 10. Enfin on s'est intéressé à l'étude de problèmes d'optimisation. Des exemples ont été traités : l'optimisation de forme et l'optimisation de matériau. La méthodologie qu'on a adoptée consiste à utiliser deux logiciels différents dans leur version standard. Le premier logiciel est le code de calcul par éléments finis 2ebulon, et la deuxième est le code d'identification de paramètres Sidolo. Ce dernier est destiné initialement à identifier des paramètres de modèles physique sur des expériences réelles. Les expériences, dans la procédure d'identification, sont remplacées, dans le cas de l'optimisation, par des objectifs à atteindre selon des critères donnés.
42

Tremolet, Arnault. "Modèles et méthodes numériques les études conceptuelles d'aéronefs à voilure tournante." Phd thesis, Aix-Marseille Université, 2013. http://tel.archives-ouvertes.fr/tel-00952559.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La variété des concepts d'aéronef à voilure tournante n'a d'égal que l'étendue de leur hamp applicatif. Dès lors, se pose une question essentielle : quel concept est le plus adapté face à un certain nombre de missions ou de spécifications ? Une partie essentielle de la réponse réside dans l'étude des performances de vol et des impacts environnementaux de l'appareil. Le projet de recherche fédérateur C.R.E.A.T.I.O.N. pour " Concepts of Rotorcraft Enhanced Assessment Through Integrated Optimization Network " a pour but de mettre en place une plateforme numérique de calculs multidisciplinaires et multiniveaux capables d'évaluer de tels critères. La multidisciplinarité fait écho aux différentes disciplines associées à l'évaluation des giravions tandis que l'aspect multi-niveaux reflète la possibilité d'étudier un concept quelque soit l'état des connaissances sur ce dernier. La thèse s'inscrit dans ce projet. Une première implication est le développement de modèles de performances de vol et leur intégration dans des boucles de calcul multidisciplinaires. Au-delà de cet aspect de modélisation physique, la multidisciplinarité touche aussi le champ des mathématiques appliquées. Les méthodes d'optimisation multi objectifs multi paramètres, l'aide à la décision pour la sélection d'un optimum de meilleur compromis, l'exploration de bases de données, la création de modèles réduits sont autant de thématiques explorées dans cette thèse.
43

Goncharova, Olena. "Méthodes et modèles de construction automatisée d'ontologies pour des domaines spécialisés." Thesis, Lyon, 2017. http://www.theses.fr/2017LYSE2018/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La thèse est préparée dans le cadre d’une convention de cotutelle sous la direction des Professeurs Jean-Hugues Chauchat (ERIC-Lyon2) et N.V. Charonova (Université Nationale Polytechnique de Kharkov en Ukraine).1. Les résultats obtenus peuvent se résumer ainsi : Rétrospective des fondations théoriques sur la formalisation des connaissances et langue naturelle en tant que précurseurs de l’ingénierie des ontologies. Actualisation de l’état de l’art sur les approches générales dans le domaine de l’apprentissage d’ontologie, et sur les méthodes d’extraction des termes et des relations sémantiques. Panorama des plateformes et outils de construction et d’apprentissage des ontologies ; répertoire des ressources lexicales disponibles en ligne et susceptibles d’appuyer l’apprentissage d’ontologie (apprentissage des concepts et relation). 2. Propositions méthodologiques : Une méthode d’apprentissage des patrons morphosyntaxiques et d’installation de taxonomies partielles de termes. Une méthode de formation de classes sémantiques représentant les concepts et les relations pour le domaine de la sécurité radiologique. Un cadre (famework) d’organisation des étapes de travaux menant à la construction de l’ontologie du domaine de la sécurité radiologique.3. Implémentation et expérimentations : Installation de deux corpus spécialisés dans le domaine de la protection radiologique, en français et en russe, comprenant respectivement 1 500 000 et 600 000 unités lexicales. Implémentation des trois méthodes proposées et analyse des résultats obtenus. Les résultats ont été présentés dans 13 publications, revues et actes de conférences nationales et internationales, entre 2010 et 2016, notamment IMS-2012, TIA-2013, TOTH-2014, Eastern-European Journal of Eenterprise Technologies, Bionica Intellecta (Бионика интеллекта), Herald of the NTU «~KhPI~» (Вестник НТУ «~ХПИ~»)
The thesis has been prepared within a co-supervision agreement with the Professors Jean-Hugues Chauchat (ERIC-Lyon2) and N.V. Charonova (National Polytechnic University of Kharkov in Ukraine).The results obtained can be summarized as follows:1. State of the art:Retrospective of theoretical foundations concerning the formalization of knowledge and natural language as precursors of ontology engineering.Update of the state of the art on general approaches in the field of ontology learning, and on methods for extracting terms and semantic relations.Overview of platforms and tools for ontology construction and learning; list of lexical resources available online able to support ontology learning (concept learning and relationship).2. Methodological proposals:Learning morphosyntactic patterns and implementing partial taxonomies of terms.Finding semantic classes representing concepts and relationships for the field of radiological safety.Building a frame for the various stages of the work leading to the construction of the ontology in the field of radiological safety.3. Implementation and experiments:Loading of two corpuses specialized in radiological protection, in French and Russian, with 1,500,000 and 600,000 lexical units respectively.Implementation of the three previous methods and analysis of the results obtained.The results have been published in 13 national and international journals and proceedings, between 2010 and 2016, including IMS-2012, TIA-2013, TOTH-2014, Bionica Intellecta (Бионика интеллекта) , Herald of the NTU "~ KhPI ~" (Вестник НТУ "~ ХПИ ~")
44

Henry, Didier. "Modèles de propagation de l'information et méthodes de sciences des données." Thesis, Antilles, 2018. http://www.theses.fr/2018ANTI0323/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
De nos jours, les médias sociaux en ligne ont transformé notre façon de créer, de partager et d'accéder à l'information. Ces plateformes reposent sur de gigantesques réseaux favorisent le libre échange d'informations entre des centaines de millions de personnes à travers le monde entier, et cela de manière instantanée.Qu'ils soient en lien avec un évènement global ou en lien avec un évènement local, ces messages peuvent influencer une société et peuvent contenir des informations utiles pour la détection ou la prédiction de phénomènes du monde réel.Cependant, certains messages diffusés peuvent avoir un impact très négatif dans la vie réelle. Ces messages contenant une « infox » peuvent avoir des conséquences désastreuses.Pour éviter et anticiper ces situations dramatiques, suivre les rumeurs, éviter les mauvaises réputations, il est nécessaire d'étudier puis de modéliser la propagation de l'information.Or, la plupart des modèles de diffusion introduits reposent sur des hypothèses axiomatiques représentées par des modèles mathématiques. Par conséquent, ces modèles sont éloignés des comportements de diffusion des utilisateurs dans la mesure où ils n’intègrent pas les observations faites sur des cas concrets de diffusion. Dans nos travaux, nous étudions le phénomène de diffusion de l’information à deux échelles. À une échelle microscopique, nous avons observé les comportements de diffusion selon des traits de personnalité des utilisateurs en analysant les messages qu'ils publient en termes de sentiments et d'émotions. À une échelle macroscopique, nous avons analysé l'évolution du phénomène de diffusion en prenant en compte la dimension géographique des utilisateurs
Nowadays, online social media has transformed the way we create, share and access information. These platforms rely on gigantic networks that promote the free exchange of information between hundreds of millions of people around the world, and this instantly.Whether related to a global event or in connection with a local event, these messages may influence a society and may contain information useful for the detection or prediction of real-world phenomena.However, some broadcast messages can have a very negative impact in real life. These messages containing false information can have disastrous consequences.To avoid and anticipate these dramatic situations, follow rumors, avoid bad reputations, it is necessary to study and then model the propagation of information.However, most of the diffusion models introduced are based on axiomatic hypotheses represented by mathematical models. As a result, these models are far removed from the users' dissemination behaviors in that they do not incorporate observations made on concrete dissemination cases. In our work, we study the phenomenon of diffusion of information at two scales. On a microscopic scale, we observed diffusion behaviors based on the personality traits of users by analyzing the messages they post in terms of feelings and emotions. On a macroscopic scale, we analyzed the evolution of the diffusion phenomenon by taking into account the geographical dimension of the users
45

Xia, Qing. "modèles et méthodes pour le génération de processus de fabrication reconfigurables." Thesis, Paris, ENSAM, 2017. http://www.theses.fr/2017ENAM0004/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les approches conventionnelles pour la génération de processus de fabrication sont inefficaces pour gérer la complexité induite par la variété des produits et la dynamique de fabrication. La génération des processus de fabrication reconfigurables (RPP) est une nouvelle méthode de CAPP qui vise à générer des processus de fabrication pour une famille de produits / pièces. Cette thèse vise à apporter une contribution majeure aux modèles de représentation et aux méthodes de génération permettant la génération des processus de fabrication reconfigurables à deux niveaux de granularité : famille de produits et famille de pièces. Les approches proposées pour le RPP sont compatibles avec une extension du concept de famille de produits / pièces qui est défini en utilisant le concept de domaine. Un modèle pour une variété fonctionnelle de produit / pièce basé sur des entités est développé afin de représenter les informations nécessaires à la gestion des processus reconfigurables en utilisant des techniques modulaires. Des modèles mathématiques et des modèles de représentation sont proposés pour décrire le processus de fabrication reconfigurable à deux niveaux de granularité. Sur la base des modèles de représentation, les méthodes de génération et les algorithmes sont ensuite détaillés dans ce cadre. En outre, un cadre global est proposé pour décrire comment les modèles et les méthodes proposés collaborent pour gérer la variété de produit / pièce et la dynamique de fabrication. Pour illustrer la faisabilité des modèles et méthodes proposés, deux familles de pompes (l’une à engrenage et l’autre à huile) sont utilisées à titre d'exemples illustratifs tout au long de ce mémoire de thèse
Conventional manufacturing process planning approaches are inefficient to handle the process planning complexity induced by product variety and manufacturing dynamics. Reconfigurable process planning (RPP) is an emerging CAPP approach targeting to the generation of process plans for a product/part family. This thesis aims to give major contributions to the representation models and generation methods to support reconfigurable process planning at two granularity levels: product family and part family. The proposed approaches for RPP are compatible with an extended concept of product/part family which is defined by using the concept of “domain”. A feature-based product/part variety model is developed to represent the required information for RPP by using modular and platform-based techniques. Mathematical models and graph-based representation models are proposed to describe the reconfigurable process plan at two granularity levels. Based on the representation models, the generation methods and algorithms are then developed for RPP. In addition, a global framework is proposed to describe how the proposed RPP models and methods work together to handle the product/part variety and manufacturing dynamics. To test the feasibility of the proposed models and methods, a gear pump family and an oil pump body family are used as illustrative examples throughout this thesis
46

Denis, Marie. "Méthodes de modélisation bayésienne et applications en recherche clinique." Thesis, Montpellier 1, 2010. http://www.theses.fr/2010MON1T001.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Depuis quelques années un engouement pour les méthodes de modélisation bayésienne a été observé dans divers domaines comme l'environnement, la médecine. Les études en recherche clinique s'appuient sur la modélisation mathématique et l'inférence statistique. Le but de cette thèse est d'étudier les applications possibles d'une telle modélisation dans le cadre de la recherche clinique. En effet, les jugements, les connaissances des experts (médecins, biologistes..) sont nombreux et importants. Il semble donc naturel de vouloir prendre en compte toutes ces connaissances a priori dans le modèle statistique. Après un rappel sur les fondamentaux des statistiques bayésiennes, des travaux préliminaires dans le cadre de la théorie de la décision sont présentés ainsi qu'un état de l'art des méthodes d'approximation. Une méthode de Monte Carlo par chaînes de Markov à sauts réversibles a été mise en place dans le contexte de modèles bien connus en recherche clinique : le modèle de Cox et le modèle logistique. Une approche de sélection de modèle est proposée comme une alternative aux critères classiques dans le cadre de la régression spline. Enfin différentes applications des méthodes bayésiennes non paramétriques sont développées. Des algorithmes sont adaptés et implémentés afin de pouvoir appliquer de telles méthodes. Cette thèse permet de mettre en avant les méthodes bayésiennes de différentes façons dans le cadre de la recherche clinique au travers de plusieurs jeux de données
For some years a craze for the methods of bayesian modelling was observed in diverse domains as the environment, the medicine. The studies in clinical research lies on the modelling mathematical and the statistical inference. The purpose of this thesis is to study the possible applications of such a modelling within the framework of the clinical research. Indeed, judgments, knowledge of the experts (doctors, biologists) are many and important. It thus seems natural to want to take into account all these knowledge a priori in the statistical model. After a background on the fundamental of the bayesian statistics, preliminary works within the framework of the theory of the decision are presented as well as a state of the art of the methods of approximation. A MCMC method with reversible jumps was organized in the context of models known well in clinical research : the model of Cox and the logistic model. An approach of selection of model is proposed as an alternative in the classic criteria within the framework of the regression spline. Finally various applications of the nonparametric bayesian methods are developed. Algorithms are adapted and implemented to be able to apply such methods. This thesis allows to advance the bayesian methods in various ways within the framework of the clinical research through several sets of data
47

Courtault, Jean-René. "Logiques de ressources dynamiques : modèles, propriétés et preuves." Thesis, Université de Lorraine, 2015. http://www.theses.fr/2015LORR0033/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
En informatique, la notion de ressource est une notion centrale. Nous considérons comme ressource toute entité pouvant être composée ou décomposée en sous-entités. Plusieurs logiques ont été proposées afin de modéliser et d’exprimer des propriétés sur celles-ci, comme la logique BI exprimant des propriétés de partage et de séparation. Puisque les systèmes informatiques manipulent des ressources, la proposition de nouveaux modèles capturant la dynamique de ces ressources, ainsi que la vérification et la preuve de propriétés sur ces modèles, sont des enjeux cruciaux. Dans ce contexte, nous définissons de nouvelles logiques permettant la modélisation logique de la dynamique des ressources, proposant de nouveaux modèles et permettant l’expression de nouvelles propriétés sur cette dynamique. De plus, pour ces logiques, nous proposons des méthodes des tableaux et d’extraction de contre-modèles. Dans un premier temps, nous définissons de nouveaux réseaux de Petri, nommés ß-PN, et proposons une nouvelle sémantique à base de ß-PN pour BI. Puis nous proposons une première extension modale de BI, nommée DBI, permettant la modélisation de ressources ayant des propriétés dynamiques, c’est-à-dire évoluant en fonction de l’état courant d’un système. Ensuite, nous proposons une logique, nommée DMBI, modélisant des systèmes manipulant/produisant/consommant des ressources. Par ailleurs, nous proposons une nouvelle logique (LSM) possédant de nouvelles modalités multiplicatives (en lien avec les ressources). Pour finir, nous introduisons la séparation au sein des logiques épistémiques, obtenant ainsi une nouvelle logique ESL, exprimant de nouvelles propriétés épistémiques
In computer science, the notion of resource is a central concern. We consider as a resource, any entity that can be composed or decomposed into sub-entities. Many logics were proposed to model and express properties on these resources, like BI logic, a logic about sharing and separation of resources. As the computer systems manipulate resources, a crucial issue consists in providing new models that capture the dynamics of resources, and also in verifying and proving properties on these models. In this context, we define new logics with new models and new languages allowing to respectively capture and express new properties on the dynamics of resources. Moreover, for all these logics, we also study the foundations of proof search and provide tableau methods and counter-model extraction methods. After defining new Petri nets, called ß-PN, we propose a new semantics based on ß-PN for BI logic, that allows us to show that BI is able to capture a kind of dynamics of resources. After observing that it is necessary to introduce new modalities in BI logic, we study successively different modal extensions of BI. We define a logic, called DBI, that allows us to model resources having dynamic properties, meaning that they evolve during the iterations of a system. Then, we define a logic, called DMBI, that allows us to model systems that manipulate/produce/consume resources. Moreover, we define a new modal logic, called LSM, having new multiplicative modalities, that deals with resources. Finally, we introduce the notion of separation in Epistemic Logic, obtaining a new logic, called ESL, that models and expresses new properties on agent knowledge
48

El, Yahchouchi Georges. "Modèles Feltham-Ohlson et parties prenantes de création de valeur : méthodes et relations empiriques." Bordeaux 4, 2004. http://www.theses.fr/2004BOR40029.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Cette thèse propose de montrer qu'une mesure plurale de la valeur, la valeur ajoutée plurale VAP, permet de mieux expliquer la création de valeur, mesurée par les bénéfices anormaux, les différences des valeurs boursières des entreprises du SBF250 et d'améliorer, par conséquent, le pouvoir explicatif des modèles d'Ohlson (1995) et de Feltham et Ohlson (1995). Nous proposons ainsi d'ajouter aux modèles d'information linéaire de Feltham et Ohlson, la valeur ajoutée par les parties prenantes VAP, les bénéfices anormaux actuels RI, les bénéfices nets Xt, les dividendes Dt, la valeur fondamentale Vf, la valeur comptable BV et le ratio valeur boursière sur la valeur comptable MV/BV, l'endettement, pour leur relation potentielle avec les bénéfices anormaux et la valeur boursière de l'entreprise. Nous avons utilisé le modèle à trois facteurs de Fama et French (1993) pour déterminer le coût des capitaux propres et calculer la VAP et les bénéfices anormaux des entreprises du SBF250 de 1990 à 2000. Nous avons utilisé, également, des régressions en coupe instantanée partielles et totales (Fama et McBeth 1973 ; Fama et French 1997) de 1995 à 1999 pour déterminer l'impact de RI, BV, VAP, MV/BV, VF, Xt et Dt sur les bénéfices anormaux futurs et la valeur boursière de l'entreprise.
49

El, Abdi Fouad. "Méthodes de géométrie différentielle dans les modèles statistiques et applications : modèles exponentiels et modèles normaux multidimensionnels : reconstruction des densités de probabilité et des densités spectrales." Paris 11, 1988. http://www.theses.fr/1988PA112253.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Le présent travail est une large application des méthodes de géométrie différentielle en statistique Le premier chapitre introduit les structures de géométrie différentielle en statistique essentiellement une structure de variété Riemannienne munie d'une paire de connexions en dualité par rapport à certaines métriques. Ces méthodes ont déjà été utilisées par AMARI CHENTSOV, EFRON, LAURlTZEN Les deux chapitres suivants sont consacrés à l'étude des estimateurs par projection étendue, proposés par Amari et Lauritzen et surtout à l'étude de leurs propriétés asymptotiques qui, dans le cas des familles exponentielles, s'expriment comme des propriétés géométriques. Nous montrons ainsi que l'efficacité au premier ordre équivaut au fait que la géométrie Riemannienne sous-jacente est conformément équivalente à celle de Fisher et que l'efficacité au second ordre se traduit par une propriété analogue sur les connexions sous-Jacentes. Il faut noter que cette classe d'estimateurs comporte à peu près tous les estimateurs usuels maximum de vraisemblance, du minimum de contraste. La dernière partie est une application des résultats précédents : 1-Au modèle normal multidimensionnel, en particulier la régression non-linéaire multidimensionnelle gaussienne : 2-A la projection dans le cadre de variétés Hilbertiennes pour la reconstruction des densités de probabilité et des densités spectraIes. Mots clés: variété différentielle, métrique, connexions, divergences, modèles exponentiels, estimation par projection, inférence statistique, densité spectrales
This work is a wide application of differential geometry methods to statistic. In chapter one we introduce the differential methods used in statistical models, essentially a Riemannian manifold structure with a pair of dual connexions with respect to particular metrics These methods have already been used by AMARI, CHENTSOV, EFRON, LAURITZEN In the two following chapters we study the projection estimators introduced by AMARI and LAURITZEN especially their asymptotic properties which in the case of exponential families have a geomeric expression So we have proved first that the first order efficiency means that the underlying Riemannian geometry is conformably equivalent to the Fisher one and then that the second order efficiency means a similar property for the underlying connexions. Note that almost all the usual estimators maximum of likelihood minimum of contrast belong to this class. The last part of this work is an application of the previous results 1- To multivariate normal model, especially to the non-linear multivariate normal regression 2-To reconstruction by projection of probability densities and spectrale densities in the case of Hilbertian manifolds
50

Brassat, Emmanuel. "Education, apprentissage et connaissance : la formation des idées pédagogiques." Thesis, Paris 10, 2012. http://www.theses.fr/2012PA100030/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Depuis les débuts des sciences humaines à la fin du dix-huitième siècle, la pédagogie et la psychologie scientifiques se sont constituées conjointement autour des questions du développement et de l’activité d’apprentissage chez l’enfant. Les notions d’activité, de développement et d’apprentissage ont permis d’établir l’hypothèse empiriste d’une psychogenèse des facultés mentales dont l’enfance attesterait naturellement à travers ses âges successifs. Les mouvements d’éducation nouvelle, issus des thèses philosophiques et pédagogiques exprimées par Rousseau dans l’Emile en 1762, ont pu donner sa dimension pratique à l’idéal d’une éducation négative fondée sur l’activité de l’enfant comme expression spontanée de ses forces vitales et spirituelles. Dans l’entrecroisement d’une métaphysique de l’activité, d’une conception libérale humaniste de l’éducation, d’une rationalité émancipatrice et de perspectives pédagogiques psychophysiologiques, peu à peu marquées par l’évolutionnisme et l’utilitarisme, sont nés les principaux paradigmes des pédagogies contemporaines : sensualistes, vitalistes, pragmatiques, fonctionnalistes, puis constructivistes. Dans cette recherche, nous avons analysé de façon archéologique et généalogique, à l’instar de M. Foucault, les dispositifs philosophiques et épistémologiques convergents et opposés qui ont permis leur constitution. Il apparaît que Rousseau a non seulement écrit le programme de leur déploiement mais encore anticipé des contradictions que celui-ci allait rencontrer durant la crise institutionnelle ultérieure de la modernité
Since the beginning of human sciences at the end of the eighteenth century, scientific pedagogy and psychology were founded conjointly around questions of the development and learning activity in childhood. The ideas of activity, development and learning have allowed to establish the empiricist hypothesis of a psychogenesis of mental faculties that would be proven naturally by the successive phases of childhood. The movements of New Education, stemming from the philosophical and pedagogical theses expounded in Rousseau’s Emile in 1762 have provided the ideal of a negative education founded on the activity of the child as spontaneous expression of his vital and spiritual forces with its practical dimension. It is in the intertwinent of a metaphysics of activity, a liberal and humanist conception of education, an emancipatory rationality, and pedagogical psycho-physiological perpectives marked increasingly by evolutionism and utilitarianism, that the principal paradigms of contemporary pedagogies were born : sensualist, vitalist, pragmatic, functionalist, and finaly constructivist. In the vein of M. Foucault this thesis proposes an archeological and genealogical analysis of the philosophical and epistemological apparatus or ”dispositives” that, converging and diverging, made the formation of these pedagogies possible. It seems that Rousseau did not only write the program of their deployment, but also anticipated the contradictions that the latter would encounter during the subsequent institutional crisis of modernity

To the bibliography