Dissertations / Theses on the topic 'Modèle hiérarchique du financement'

To see the other types of publications on this topic, follow the link: Modèle hiérarchique du financement.

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 dissertations / theses for your research on the topic 'Modèle hiérarchique du financement.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Guo, Yugang. "Les déterminants de la structure du capital pour les sociétés cotées chinoises :." Poitiers, 2009. http://www.theses.fr/2009POIT4020.

Full text
Abstract:
Compte tenu des caractéristiques de l'économie socialiste de marché chinoise, il importe de s'interroger sur les choix des sociétés chinoises en matière de financement et donc finalement sur la structure de leur capital. Il s'agit de vérifier si cette structure est la résultante d'un libre choix du marché ou de contraintes reflétant le maintien d'une certaine économie administrée et la survie d'un système financier dominé par les grandes banques d'État. Une double analyse économétrique portant d'une part sur le levier d'endettement d'un échantillon de 1140 entreprises chinoises (sur des données de 2006) et d'autre part sur le passage du financement interne aux financements externes (de l'endettement à l'émission d'actions) permet de vérifier que la dynamique du financement infirme le modèle hiérarchique du financement au profit du modèle d'arbitrage. Non seulement le levier d'endettement en Chine dépend des variables explicatives déjà pertinentes pour les pays industrialisés et les pays émergents, mais aussi la dynamique du financement révèle le fonctionnement de mécanismes d'incitation compatibles avec le jeu du marché, même si les contraintes exercées par l'État et les grandes banques ne sont pas sans conséquences
Given the socialist market economy of China, it has proven to be extremely interesting to investigate the sources of Chinese companies financing as well as their capital structure. This dissertation will explore whether this structure is the result of a free choice or is only the reflection of a planned economy whose financial system is dominated by large-scale state-owned banks. An econometric analysis is constructed on both a sample of 1,140 Chinese firms (2006 figures) and their financing choices from internal to external (from internal financing to equity financing). We try to verify whether these choices confirm the modern finance theory of capital structure (pecking order model and trade-off model). Our findings will suggest that the capital structure determinants of Chinese Companies are consistent with the capital structure determinants of both industrialized and emerging countries. The findings will also show that the modern market theory is portable to China, despite profound institutional differences between China and the western world
APA, Harvard, Vancouver, ISO, and other styles
2

Poincelot, Evelyne. "Théories du financement hiérarchique et structure financière." Dijon, 1994. http://www.theses.fr/1994DIJOE003.

Full text
Abstract:
L’objet de la thèse est d’apprécier les explications fournies par les théories du financement hiérarchique à la détermination de la structure financière. La thèse est composée de deux parties. La première partie est consacrée à positionner les théories du financement hiérarchique (classement entre les financements) dans les théories de la structure financière et en particulier par rapport aux théories du compromis (compromis entre les financements). Elle comprend trois chapitres, dans lesquels sont présentées successivement les théories du compromis et les théories du financement hiérarchique ainsi que leurs caractéristiques principales et enfin une interprétation des différences constatées entre ces deux corpus. La deuxième partie est axée sur l’appréciation des théories du financement hiérarchique par examen de la cohérence interne (étude critique des hypothèses, raisonnements et conclusions des modèles) et de la cohérence externe (étude du pouvoir explicatif de chaque théorie) et comprend trois chapitres. Des tests ont été envisagés lorsque les prédictions des théories du financement hiérarchique sont contradictoires avec les théories du compromis ou d’autres travaux ou un classement entre les financements est préconisé
The aim of this thesis is to appreciate the explinations gived by the pecking order theories in the determination of capital structure. The thesis include two parts. Its first part has the objective to position the pecking order theories with respect to the determination of the theories of capital structure. It include three chapters. In which the compromise theories (tradeoff of the costs and benefits of different financing) and the pecking order theories (class the financings). Their principal characteristics and then an interpretation of the discovered differences between these two categories of models are successively presented. Its second part is centred on the appreciation of the pecking order theories. Considering the internal coherence (critical study of the hypothesis, reasoning, conclusion of models) and the external coherence (study of the explanatory power of every theory) and include three chapters. Empical tests were envisaged when predictions of pecking order theories are in contradiction with these of the compromise theories and these of models where the classification between financings was advocated
APA, Harvard, Vancouver, ISO, and other styles
3

Mbobi, Mokhoo. "Modélisation hétérogène non-hiérarchique." Paris 11, 2004. http://www.theses.fr/2004PA112211.

Full text
Abstract:
Les systèmes embarqués sont naturellement hétérogènes et les outils actuels employés pour leur modélisation utilisent une approche hiérarchique, qui, bien qu'évitant l'explosion combinatoire du nombre d'interfaces entre différents modèles de calcul (MoCs), impose systématiquement un changement de niveau hiérarchique lorsque l'on passe d'un MoC à un autre. Or ce couplage entre la hiérarchie et les changements de MoC perturbe la structure du modèle, nuit à la réutilisabilité des composants, altère la modularité et réduit la maintenabilité des modèles. Cette thèse propose une approche non-hiérarchique qui découple les changements des MoCs de la hiérarchie. Elle repose sur l'utilisation de " Composant à Interface Hétérogène " (Heterogeneous Interface Component - HIC) qui dispose d'entrées et de sorties de natures différentes pour permettre la communication hétérogène dans le système et d'un Modèle d'Exécution Hétérogène Non-Hiérarchique dont la tâche est de restructurer le système en le partitionnant, i. E. , en créant des sous-systèmes homogènes à la frontière des comportements hétérogènes, puis, d'ordonnancer leurs activations en déléguant leur ordonnancement interne à leurs MoCs réguliers et d'exécuter le système. Cette approche présente plusieurs avantages : - l'utilisation de plusieurs composants hétérogènes au même niveau hiérarchique, - la séparation entre le flot de contrôle et le flot de données qui augmente la réutilisabilité des composants. - la spécification par le concepteur du comportement de son système à la limite des différents MoCs comme partie intégrante du système contribue efficacement à la modularité et à la maintenabilité des modèles
Embedded systems are naturally heterogeneous. Currently, modeling tools used for modeling embedded systems use a hierarchical approach. This approach although avoiding the combinatorial explosion of the number of interfaces between models of Computation (MoCs) forces the change of hierarchical level when passing from one MoC to another. But, this coupling between hierarchy and model changing perturbs the structure of the model, affects the modularity and makes difficult the maintainability of the model. Moreover this coupling is harmfull to the reuse of the component. This thesis proposes a new approach that dissociates the MoC from this hierarchy. This approach uses two components : a "Heterogeneous Interface Components (HIC) " and a "Non-Hierarchical Heterogeneous Execution Model". A HIC have inputs and outputs of different nature to allow the heterogeneous communication in a system. The Execution Model reorganizes the system by partitionning, i. E. By creating homogenous subsystems at the border of the heterogeneous behavior. It schedules the activation of those subsystems and delegates their internal scheduling to their regular MoC. Finally it executes the system. This approach presents several advantages : the use of several components that use heterogeneous inputs or outputs at the same level of the hierarchy. The separation of control flow and data flow increases the reuse of the components. The explicit specification of the heterogeneous behavior of the system at the boundary between different MoCs as an integral part of the system, contributes efficiently to the modularity and the maintainability of the models
APA, Harvard, Vancouver, ISO, and other styles
4

Reynaud, Bénédicte. "Le modèle hiérarchique : une méthode d'analyse des relations salariales." Paris 10, 1987. http://www.theses.fr/1987PA100112.

Full text
Abstract:
La thèse cherche à résoudre la question de l'incertitude qualitative propre a la relation salariale. Il s'agit d'une situation ou la "qualité" du salarie, c'est-à-dire sa productivité, n'est pas connue avant l'échange et demeure difficilement observable après. Au coeur de cette question, se trouve la nécessite d'élaborer une théorie économique des règles. La recherche est menée en deux parties. La première partie est consacrée a l'analyse des représentations du social. La seconde, a la construction du social. Le premier chapitre se rapporte aux théories néoclassiques qui ont considère l'incertitude radicale comme un réel problème a résoudre. Elles ont alors développe une conceptualisation de la règle dont l'enjeu est le suivant : comment concevoir la règle malgré l'autorégulation du marche ? Le second chapitre traite des théories hétérodoxes qui ont fonde une critique du marche a partir des règles. Le troisième chapitre expose les thèses de Louis Dumont qui nous ont parues essentielles pour la construction du social. La seconde partie est consacrée a l'élaboration d'un modèle d'analyse des relations salariales, le modèle hiérarchique. Dans le chapitre IV, on montre que l'incertitude qualitative ne trouve de solutions adéquates ni dans le paradigme walrasien, ni dans le paradigme qusi-walrasien. On expose ensuite la configuration générale du modèle : le dualisme-mache du travail, normes ou règles, -l'entreprise comme médiation entre ces niveaux, une conception juridique de la norme : elle est a la fois un instrument de mesure et un modèle. Le chapitre v applique le modèle a l'analyse de la genèse d'une règle spécifique, le chômage a la fin du xixe siècle. Enfin, le chapitre vi applique le modèle a l'analyse des relations salariales, en France, dans la crise actuelle. Il y a deux résultats : en premier lieu, l'importance des formes intermédiaires dans la stabilité des relations salariales ; en second lieu, une interprétation de la crise : il s'agit d'une crise d'excès de différenciations des règles et une crise de l'intermédiation ou crise de l'entreprise
The thesis is an attempt to solve the qualitative uncertainly problem, concerning the salarial relationship. It defines a situation in which the “quality” of the worker, his productivity, is unknow before the exchange and is still inobservable after. Central of this question, is the necessity of an economic theory of rules. The research has two parts: the first one is an analysis of the social representation. The second one deals with the social construction. The first chapter analyses the neo classical theories which have considered the radical uncertainty as a real problem to be solved. Their problem is to give a response at the following question: which conception of rules though their theisis of an autoregulated market? The second chapter has to do with the heterodox theories which have embodied the critic of the market with the rules. The third chapter explains the Louis Dumont’s thesis. The second part is an attempt to elaborate an analysis pattern of salarial relationships, the hierarchical pattern. In the chapter IV, we show that qualitive incertainly does not have the adequate solutions as far as the walrasian and quasiwalrasian paradigme is concern. We explain the general scheme of our pattern: a dualism –labor market, rules or norms, -entreprise as an intermediate, and a juridical conception of norm: il is an evaluation tool and a pattern. The chapter V applies the pattern to the analysis of the emvergence of a specific rule, the unemployment at the end of XIX century. The chapter VI applies the model to the analysis of salarial relationship in France, in the actual crisis. There are two results: on the one hand, the impact of intermedial forms in the stabilization of salarial relationship; on the other hand, an interpretation of the crisis. It is a crisis of exces of differenciation of rules and a crisis of intermediation or enterprise crisis
APA, Harvard, Vancouver, ISO, and other styles
5

Bensaïd, Nourredine. "Contribution à la réalisation d'un modèle d'architecture multi-agent hiérarchique." Lille 1, 1999. https://pepite-depot.univ-lille.fr/LIBRE/Th_Num/1999/50376-1999-155.pdf.

Full text
Abstract:
Le paradigme de l'intelligence artificielle distribuée a pour objectif de concevoir et de développer des systèmes complexes et intelligents. Il a donne naissance à deux modèles de résolution de problèmes qui sont les architectures tableau noir et les systèmes d'agents autonomes. Chacun de ces modèles est bien adapte à certains types de problèmes. Notre contribution consiste à proposer une architecture intermédiaire appelée MAGIQUE dont le but est de tirer profit des avantages des deux modèles classiques en intégrant leurs fonctionnalités dans une nouvelle architecture plus robuste. MAGIQUE est caractérisé par plusieurs niveaux de contrôle hiérarchiques dont chacun est représenté par un ensemble d'agents superviseur. Ces derniers ont pour rôle de coordonner les interactions d'un groupe d'agents sociaux et d'offrir un cadre de coopération partagé. L'expertise du domaine est représentée au niveau le plus bas de la hiérarchie par des agents spécialistes dont les tâches sont spécifiques au problème à résoudre
L'architecture de contrôle de MAGIQUE vise à supporter des applications complexes mettant en oeuvre un grand nombre d'agents moyennant des méthodes de communication récursives et un contrôle efficace. Des instanciations de notre modèle sont présentées pour illustrer son fonctionnement. Nous proposons notamment un système de gestion des moteurs d'inférence repartis illustrant la coopération d'un ensemble d'agents ayant des capacités d'inférence différentes. A cet effet, l'application multi-expert développée est constituée d'agents spécialistes dont les moteurs d'inférence peuvent fonctionner en chaînage avant, en chaînage arrière, ou même dans différentes logiques
Nous avons aussi appliqué notre architecture à la simulation de l'exploration d'un territoire inconnu par un ensemble de robots autonomes. Ces derniers sont représentés par des agents spécialistes qui possèdent leur propre stratégie d'exploration et qui coopèrent entre-eux directement ou indirectement via leur superviseur afin d'explorer la totalité du territoire. Les superviseurs possèdent de plus un mécanisme de régulation de charge qui permet d'équilibrer le travail des spécialistes. En conclusion, le modèle d'architecture multi-agent hiérarchique présenté à travers MAGIQUE concilie à la fois l'efficacité d'un contrôle hiérarchique, la possibilité d'appréhender l'état global d'un groupe d'agents via la structure tableau noir du superviseur, et tous les avantages de l'approche de résolution basée sur des agents autonomes. Notre modèle hiérarchique se révèle adapté pour supporter des applications client/serveur physiquement distribuées, et apporte des avantages multiples en terme de fiabilité, d'efficacité et d'adaptativité. Dans le futur, nous pensons appliquer notre architecture au problème de navigation d'un usager distant géographiquement dans un magasin virtuel
APA, Harvard, Vancouver, ISO, and other styles
6

Kako, Dano. "Estimation des paramètres dans un modèle hiérarchique de processus stochastiques." Thèse, Université de Sherbrooke, 2001. http://savoirs.usherbrooke.ca/handle/11143/5008.

Full text
Abstract:
L'objectif de notre étude est d'estimer les paramètres associés à la dérive d'un modèle hiérarchique de processus stochastiques. Nous obtenons auparavant les solutions des équations différentielles stochastiques des moyennes hiérarchiques correspondant aux différents niveaux du modèle. Nous calculons les deux premiers moments de ces moyennes et nous en déduisons leur comportement asymptotique. Dans un deuxième temps, nous déterminons les estimateurs du maximum de vraisemblance des paramètres et nous étudions leurs propriétés asymptotiques. Nous établissons un théorème central limite donnant la convergence en loi des estimateurs. Mentionnons que les estimateurs du maximum de vraisemblance que nous obtenons sont calculables en temps réel. Cette caractéristique est essentielle à leur utilisation dans des domaines d'application variés dont la finance. Nous terminons notre travail par des simulations avec le logiciel Matlab afin de tester la sensibilté de nos estimateurs.
APA, Harvard, Vancouver, ISO, and other styles
7

Ghadi, Abderrahim. "Modèle hiérarchique de contrôle d'accès d'UNIX basé sur un graphe de rôles." Strasbourg, 2010. http://www.theses.fr/2010STRA6005.

Full text
Abstract:
En termes de contrôle d’accès, est-il possible de répondre à la question suivante : "Le système de contrôle d’accès est-il décidable ?". En d’autres termes "Est-il vrai qu’à partir d’un état de protection sûr, nous pouvons dire à n’importe quel instant qu’il n’y a aucune intrusion qui mettra en péril notre système ?". Afin de répondre à cette question, nous proposons la modélisation du système de contrôle d’accès sous forme de graphe de rôles. Les rôles, qui représentent les noeuds du graphe, contiennent selon, la politique de sécurité, un certain nombre de privilèges. Chaque privilège représente un ou plusieurs droits d’accès sur un objet donné. Nous avons présenté deux méthodes d’utilisation de ce graphe : La première consiste à utiliser un algorithme, que nous avons développé en se basant sur les algorithmes de la théorie des graphes, permettant de parcourir les chemins du graphe afin de trouver les transferts de privilèges illicites. La deuxième consiste à stocker notre graphe dans un annuaire LDAP, ceci nous amène à developper un nouveau schéma LDAP pour représenter notre graphe de rôles
Concerning access control, can the following question be addressed : "Is the access control system decidable ?". In other words : is it true that starting from a safe state of protection, we can assume at any time that is no intrusion which will endanger our system ?. In order to answer this question, we propose to model the access control system in the form of a graph of roles. The roles, which represent the vertices of graph contain, according to the security-policy, certain number of privileges. Every privilege represents one or several access rights on a given object. We presented two methods of use of this graph : The first consists in using an algorithm, which we developed by basing itself on the algorithms of the theory of the graphs, permit to search all over the path of the graph in order to find illicit privilege transfer. The second consists in storing our graph in a directory LDAP, this which brings us to develop a new plan LDAP to represent our graph of roles
APA, Harvard, Vancouver, ISO, and other styles
8

Cerveaux, Laurent Kevin. "Analyse de la pertinence du modèle de financement du capital investissement." Thesis, La Réunion, 2014. http://www.theses.fr/2014LARE0007/document.

Full text
Abstract:
Afin d'apporter une réponse à la problématique de cette thèse qui examine la pertinence du modèle de financement du capital investissement, ce travail est structuré en quatre parties. Dans la première, nous analysons les fondements de l'activité de capital investissement. Nous étudions la structure organisationnelle de l'activité et ses déterminants. La seconde partie s'intéresse aux enjeux économiques de l'intégration du capital investissement. Nous montrons que cette activité financière est créatrice nette d'emploi et qu'elle renforce la compétitivité et la résilience économique des sociétés. La troisième partie traite des liens de causes à effets entre les flux de capital investissement et la crise des subprimes. Nous démontrons, d'une part, que le capital investissement n'a pas joué de rôle déterminant dans l'origine et le développement de cette crise et, d'autre part, que les réformes réglementaires de ce secteur conduisent à des modifications de la répartition de ses flux tant au niveau des segments de l'activité qu'au niveau géographique. La quatrième partie étudie la relation entre les flux entrants de capital investissement d'un pays et son taux de change. Nous montrons que la sous-évaluation de la devise augmente son attractivité pour les transactions de capital investissement. Cette thèse insiste, par conséquent, sur le rôle fondamental des opérations de capital investissement dans l'économie et sur l'impact de la politique de change d'un pays sur les flux entrants de ce secteur sur son territoire
To provide an answer to the issue of this thesis which examines the relevance of the financing model of the private equity, this work is divided into four parts. In the first, we analyze the foundations of the private equity business. We study the organizational structure of the activity and its determinants. The second part focuses on economic integration issues of the private equity. We show that this financial activity is a net creator of jobs and it enhances the competitiveness and economic resilience of firms. The third part deals with the relationship of cause and effect between private equity and the subprime crisis. We show, first that the private equity has not played a key role in the origin and development of this crisis and, secondly, that the regulatory reforms of the sector lead to changes in the distribution of its flows both in terms of business segments that in geographical centralization. The fourth part examines the relationship between private equity inflows in a country and its exchange rate. We show that the undervaluation of a currency increases its attractiveness for private equity deals. This thesis emphasizes, therefore, the fundamental role of private equity transactions in the economy and the impact of policy changes on a country private equity's inflows
APA, Harvard, Vancouver, ISO, and other styles
9

Diard, Julien. "La carte bayésienne : un modèle probabiliste hiérarchique pour la navigation en robotique mobile." Phd thesis, Grenoble INPG, 2003. http://tel.archives-ouvertes.fr/tel-00004369.

Full text
Abstract:
Qu'est-ce qu'une carte ? Quelle est son utilité ? Qu'est-ce-qu'un lieu, un
comportement ? Qu'est-ce-que naviguer, se localiser et prédire, pour un
robot mobile devant accomplir une tâche donnée ?

Ces questions n'ont pas de réponses uniques ou évidentes à ce jour, et
restent centrales à de nombreux domaines de recherches.

La robotique, par exemple, souhaite y répondre en vue de la synthèse de
systèmes sensori-moteurs performants. Les sciences cognitives placent ces
questions comme essentielles à la compréhension des êtres vivants, de leurs
compétences, et au-delà, de leurs intelligences.

Notre étude se situe à la croisée de ces disciplines. Nous étudions tout
d'abord les méthodes probabilistes classiques (Localisation Markovienne,
PDMPOs, MMCs, etc.), puis certaines approches dites "bio-inspirées"
(Berthoz, Franz, Kuipers). Nous analysons les avantages et inconvénients
respectifs de ces approches en les replaçant dans un cadre général de
programmation des robots basé sur l'inférence bayésienne (PBR).

Nous proposons un formalisme original de modélisation probabiliste de
l'interaction entre un robot et son environnement : la carte bayésienne.

Dans ce cadre, définir une carte revient à spécifier une distribution de
probabilités particulière. Certaines des questions évoquées ci-dessus se
ramènent alors à la résolution de problèmes d'inférence probabiliste.

Nous définissons des opérateurs d'assemblage de cartes bayésiennes,
replaçant ainsi les notions de "hiérarchie de cartes" et de développement
incrémental comme éléments centraux de notre approche, en accord avec les
données biologiques. En appuyant l'ensemble de notre travail sur le
formalisme bayésien, nous profitons d'une part d'une capacité de traitement
unifié des incertitudes, et d'autre part, de fondations mathématiques
claires et rigoureuses. Notre formalisme est illustré par des exemples
implantés sur un robot mobile Koala.
APA, Harvard, Vancouver, ISO, and other styles
10

Loingeville, Florence. "Modèle linéaire généralisé hiérarchique Gamma-Poisson pour le contrôle de qualité en microbiologie." Thesis, Lille 1, 2016. http://www.theses.fr/2016LIL10005/document.

Full text
Abstract:
Dans cette thèse, nous proposons une méthode d'analyse de variance pour des données discrètes issues du contrôle de qualité en microbiologie. Nous étudions tout d'abord la méthode d'analyse de variance actuellement utilisée, ses avantages, inconvénients, et limites. Nous proposons une première modélisation du problème par un modèle linéaire à deux facteurs fixes imbriqués. Nous utilisons la méthode d'analyse de déviance pour développer des tests de significativité des facteurs, qui s'avèrent efficaces sur des données d'essais interlaboratoires en microbiologie. Nous présentons ensuite une modélisation à facteurs aléatoires. Le caractère aléatoire des facteurs permet de caractériser la surdispersion des résultats de dénombrement en microbiologie, ce qui constitue l'un des objectifs principaux de ce travail. Le modèle développé correspond à un Modèle Linéaire Généralisé Hiérarchique Gamma-Poisson à trois facteurs aléatoires. Nous proposons alors une méthode d'estimation des effets fixes et aléatoires, ainsi que des paramètres de dispersion associés aux facteurs. Nous présentons des applications pratiques de cette méthode à des données d'essais interlaboratoires en microbiologie, qui prouvent l’ajustement du modèle aux données réelles. Nous proposons également une méthode de test de la significativité des facteurs, ainsi qu'une nouvelle méthode d'évaluation de la performance analytique des laboratoires participants à un essai. Nous présentons enfin une distribution presque-exacte du produit de variables aléatoires indépendantes de loi Gamma Généralisées, permettant d’effectuer des tests de détection de résultats de dénombrement aberrants
In this thesis, we propose an analysis of variance method for discrete data from quality control in microbiology. To identify the issues of this work, we start by studying the analysis of variance method currently used in microbiology, its benefits, drawbacks, and limits. We propose a first model to respond the problem, corresponding to a linear model with two nested fixed factors. We use the analyse of deviance method to develop significance tests, that proved to be efficient on data sets of proficiency testings in microbiology. We then introduce a new model involving random factors. The randomness of the factors allow to assess and to caracterize the overdispersion observed in results of counts from proficiency testings in microbiology, that is one of the main objectives of this work. The new model corresponds to a Gamma-Poisson Hierarchical Generalized Linear Model with three random factors. We propose a method based on this model to estimate dispersion parameters, fixed, and random effects. We show practical applications of this method to data sets of proficiency testings in microbiology, that prove the goodness of fit of the model to real data. We also develop significance tests of the random factors from this new model, and a new method to assess the performance of the laboratories taking part in a proficiency testing. We finally introduce a near-exact distribution for the product of independent generalized Gamma random variables, in order to characterize the intensity of the Poisson distribution of the model. This approximation, developped from a factorization of the characteristic function, is very precise and can be used to detect outliers
APA, Harvard, Vancouver, ISO, and other styles
11

Bellettre, Ingrid. "Les choix de financement des Très Petites Entreprises." Phd thesis, Université du Droit et de la Santé - Lille II, 2010. http://tel.archives-ouvertes.fr/tel-00579822.

Full text
Abstract:
Ce travail de recherche est dédié à l'analyse des décisions de financement des Très Petites Entreprises (TPE)françaises. Le premier chapitre de cette thèse décrit le cadre de l'étude, à savoir les TPE. Le second chapitre revisite les principales théories de la structure financière à la lumière des spécificités des TPE, et motive l'utilisation du cadre théorique du financement hiérarchique. Le troisième chapitre propose un test de la théorie du financement hiérarchique sur un large échantillon de TPE françaises. Le quatrième chapitre propose d'adapter ce modèle aux choix et aux contraintes de financement de la TPE, notamment en y intégrant une hiérarchie infra dettes.Ce chapitre propose également un test empirique portant sur l'arbitrage entre dettes financières et comptes courants d'associés. La principale contribution de cette thèse est certainement la généralisation de la théorie du financement hiérarchique aux TPE françaises. Ces firmes préfèrent le financement interne au financement externe, et la dette à l'émission d'actions. Néanmoins, les firmes en excédent de financement ne cherchent pas à se désendetter rapidement, ce qui peut se traduire par l'anticipation de déficits de financement futurs, d'autant plus difficiles à combler que ces entreprises sont soumises au rationnement de crédit. La théorie du financement hiérarchique ne permet cependant pas d'expliquer la préférence des dirigeants de TPE pour les dettes financières, par rapport aux comptes courants d'associés. Les TPE étant généralement détenues et dirigées par la même personne, il est possible d'analyser ce comportement sous l'angle de la théorie de la diversification.Les actionnaires-dirigeants privilégient la diversification de leur patrimoine personnel à la minimisation des coûts d'asymétrie d'information
APA, Harvard, Vancouver, ISO, and other styles
12

Dulu, Olivier. "Approche structurale de la compétence à s’orienter : proposition d’un modèle général, hiérarchique, dynamique et multivarié." Thesis, Paris, CNAM, 2014. http://www.theses.fr/2015CNAM0949/document.

Full text
Abstract:
Quelle est la structure décisionnelle de la compétence à s’orienter ? Après avoir analysé les modèles existants et parcouru plusieurs recherches étudiant l’impact de différentes variables, nous avons proposé un modèle général qui pourrait se baser à la fois sur des modèles structuraux différenciant des axes d’internalité et d’externalité, sur des modèles hiérarchiques et sur des modèles dynamiques. La validation de ce modèle repose sur deux études empiriques distinctes. Une première expérimentation avec groupe témoin a été réalisée auprès de 665 étudiants issus de trois filières universitaires (psychologie, sciences et lettres) et a permis d’observer la mobilité de la maturité de carrière au cours d’une action d’orientation. La seconde, menée auprès de 322 étudiants en psychologie et en sciences, a montré l’interaction de nombreuses variables internes, comme le locus de contrôle, le sentiment d’efficacité personnelle, l’autonomie, l’anxiété décisionnelle et la maturité de carrière, cette dernière pouvant s’inscrire comme une composante d’un modèle général, hiérarchique, dynamique et multivarié de la compétence à s’orienter. Une recherche complémentaire auprès de 186 étudiants a montré l’aspect à la fois modérateur et conflictuel des valeurs d’ouverture au changement (autonomie et stimulation) et de continuité (tradition et conformité) à l’œuvre lors du processus décisionnel
What is the decision-making structure that underpins career self-determination? Having examined existing models and various studies of the impact of their respective variables, we propose a general model which is inspired by three others: a structural model differentiating between internal and external axes, a hierarchical model and a dynamic model. In order to confirm this hypothesis, we have conducted two distinct experiments. The first of these, with a sample group of 665 students from three university backgrounds (psychology, general science and humanities), enabled us to observe the changing dynamics of career maturity during a career guidance activity. The second experiment, carried out with 322 psychology and science students, showed the interaction of numerous internal personal characteristics, such as the locus of control, the feeling of self-efficacy, autonomy, decision stress and career maturity. As opposed to earlier general preconceptions, we suggest that this last characteristic (career maturity) is just one of the components of a general self-determination model based on hierarchy, dynamics and multiple variables. Subsequent research, carried out with 186 students, has shown the moderating and conflictual aspects of the values (autonomy and stimulation) adopted by persons open to change and the values (tradition and conformity) of persons preferring to continue without change within the decision process
APA, Harvard, Vancouver, ISO, and other styles
13

Zou, Zhaomin. "La transition financière chinoise : un modèle de financement alternatif dans un contexte de libéralisation financière." Phd thesis, Université de Grenoble, 2013. http://tel.archives-ouvertes.fr/tel-00973231.

Full text
Abstract:
Cette thèse étudie le processus de transformation du système financier chinois dans un contexte de libéralisation financière. Son objectif est de questionner les possibilités d'établir un modèle de financement alternatif en faveur du développement économique des pays en développement. Cette recherche montre que l'expérience de la transition financière en Chine peut être considérée comme un cas de figure pertinent, traduisant la portée des approches de répression financière et les écueils des politiques de libéralisation financière. Elle s'attache à analyser le paradoxe de l'économie chinoise : une performance économique exceptionnelle s'accompagne de la fragilité de son système financier. L'objectif spécifique de ce travail est de discerner les spécificités de la transition financière chinoise afin de contribuer à une meilleure compréhension de la structure financière chinoise actuelle, de son efficacité pour le développement économique du pays et de l'impact de l'ouverture financière sur la stabilité de son système financier.
APA, Harvard, Vancouver, ISO, and other styles
14

Pasanisi, Alberto. "Aide à la décision dans la gestion des parcs de compteurs d'eau potable." Phd thesis, ENGREF (AgroParisTech), 2004. http://pastel.archives-ouvertes.fr/pastel-00000935.

Full text
Abstract:
La métrologie des compteurs d'eau se dégrade au long de leur vie opérationnelle, entraînant, pour la plupart des compteurs actuellement utilisés en France, une sous-estimation du volume d'eau facturé. Ce phénomène est source de problèmes pour les distributeurs d'eau: il se traduit en un manque à gagner non négligeable et détermine une situation d'inégalité entre les usagers. En outre, une réglementation, de plus en plus exigeante, obligera bientôt les distributeurs à limiter la proportion d'appareils à métrologie imparfaite en dessous d'une valeur fixée. La planification des renouvellements des compteurs est, par conséquent, un problème complexe qui demande la mise en place d'une stratégie optimale. N'importe quelle méthode de planification nécessite la connaissance préliminaire de la métrologie des compteurs en conditions réelles d'exploitation. Le but de cette thèse est de fournir des éléments utiles à la mise en place des règles de gestion optimale adoptées par la Compagnie Générale des Eaux. L'étude de la dégradation de la métrologie se fait avec un modèle dynamique (markovien) à quatre états discrets à métrologie de plus en plus dégradée. Les calculs d'inférence sont réalisés dans un cadre bayésien avec des techniques MCMC (Markov Chain Monte Carlo). Cette méthode d'estimation est une alternative, plus que valide, aux procédures basées sur la recherche du maximum de la vraisemblance sous contraintes. Finalement, on montre que le modèle est capable de fournir des prévisions directement utilisables par les décideurs: l'estimation du sous-comptage et de la probabilité de non-conformité, en fonction de l'âge, de l'agressivité du site et de la consommation annuelle.
APA, Harvard, Vancouver, ISO, and other styles
15

Servigny, Arnaud de. "Un modèle général d'économie financière : financement de l'économie et formation de la structure des taux d'intérêt." Paris 1, 1998. http://www.theses.fr/1998PA010033.

Full text
Abstract:
Cette thèse, fondée sur une méthodologie d'anticipations rationnelles et de modèles de jeu se propose de bâtir un modèle général explicatif de la sphère financière. À ce titre, ce document présente une modélisation descriptive des différents acteurs composant cette sphère financière :. La banque commerciale. L'épargnant. La banque centrale. Le marché. Le besoin de financement de l'économie réelle les relations entre ces différents acteurs sont précisées et détaillées dans une optique dynamique. Il résulte de ce travail une approche renouvelée de la formation de la structure des taux d'intérêt, la notion de financial governance ; ou lien de coopération, plus que de coordination entre le marché obligataire long (constitue en particulier du trésor) et la banque centrale
This model is a macroeconomic model, based on rational expectation and game theory. The behaviour of several actors is carefully studied, such as : commercial banks consumer central bank long term bond market need for money from real economy the confrontation of these actors in a single model enables to arrive to several conclusions : cooperation between macro actors to arrive to an optimal policy influence of this cooperation on the shape of the term structure of interest rates
APA, Harvard, Vancouver, ISO, and other styles
16

Contes, Arnaud. "Une architecture de sécurité hiérarchique, adaptable et dynamique pour la grille." Phd thesis, Université de Nice Sophia-Antipolis, 2004. http://tel.archives-ouvertes.fr/tel-00239252.

Full text
Abstract:
Si la sécurité est une notion essentielle aux applications, particulièrement aux applications distribuées, ses nombreux concepts représentent une étape difficile de leur développement. Les intergiciels actuels intègrent un grand nombre de technologies relatives aux concepts de sécurité. Cependant, ils laissent aux développeurs la tâche de choisir la technologie la plus adaptée ainsi que la gestion des processus sous-jacents. Cet exercice se révèle d'autant plus difficile lorsque l'application évolue dans un environnement dynamique tel que celui des grilles de calcul. Afin de faciliter le déploiement d'applications distribuées et sécurisées, cette thèse présente un modèle de sécurité décentralisé permettant aux divers acteurs (administrateurs, fournisseurs de ressources, utilisateur) d'exprimer leurs politiques de sécurité. Son utilisation se veut totalement transparente au code métier des applications. La configuration de la politique de sécurité d'une application est exprimée dans des fichiers externes en dehors du code source de cette dernière. Il est ainsi possible d'adapter la sécurité de l'application en fonction de son déploiement. Notre mécanisme de sécurité est conçu pour s'adapter dynamiquement aux situations survenant dans le cycle de vie d'une application distribuée, notamment l'acquisition de nouvelles ressources et la création de nouveaux objets. L'implantation du modèle au sein d'une bibliothèque pour le calcul distribué a permis de démontrer la faisabilité de l'approche et ses avantages. En effet, son implantation transparente a permis son intégration immédiate avec les autres modules de la bibliothèque (communications de groupe, mobilité, composants, pair-à-pair). Les tests de performance réalisés afin d'évaluer son surcoût ont confirmé la validité de l'approche.
APA, Harvard, Vancouver, ISO, and other styles
17

Poulin, Marc-André. "Un modèle de qualité logicielle basé sur une architecture favorisant l'agrégation des données selon le processus d'analyse hiérarchique." Thesis, National Library of Canada = Bibliothèque nationale du Canada, 1997. http://www.collectionscanada.ca/obj/s4/f2/dsk3/ftp04/mq33180.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
18

Boutin, Victor. "Etude d’un algorithme hiérarchique de codage épars et prédictif : vers un modèle bio-inspiré de la perception visuelle." Thesis, Aix-Marseille, 2020. http://www.theses.fr/2020AIXM0028.

Full text
Abstract:
La représentation concise et efficace de l'information est un problème qui occupe une place centrale dans l'apprentissage machine. Le cerveau, et plus particulièrement le cortex visuel, ont depuis longtemps trouvé des solutions performantes et robustes afin de résoudre un tel problème. A l'échelle locale, le codage épars est l'un des mécanismes les plus prometteurs pour modéliser le traitement de l'information au sein des populations de neurones dans le cortex visuel. A l'échelle structurelle, le codage prédictif suggère que les signaux descendants observés dans le cortex visuel modulent l'activité des neurones pour inclure des détails contextuels au flux d'information ascendant. Cette thèse propose de combiner codage épars et codage prédictif au sein d'un modèle hiérarchique et convolutif. D'un point de vue computationnel, nous démontrons que les connections descendantes, introduites par le codage prédictif, permettent une convergence meilleure et plus rapide du modèle. De plus, nous analysons les effets des connections descendantes sur l'organisation des populations de neurones, ainsi que leurs conséquences sur la manière dont notre algorithme se représente les images. Nous montrons que les connections descendantes réorganisent les champs d'association de neurones dans V1 afin de permettre une meilleure intégration des contours. En outre, nous observons que ces connections permettent une meilleure reconstruction des images bruitées. Nos résultats suggèrent que l'inspiration des neurosciences fournit un cadre prometteur afin de développer des algorithmes de vision artificielles plus performants et plus robustes
Building models to efficiently represent images is a central and difficult problem in the machine learning community. The neuroscientific study of the early visual cortical areas is a great source of inspiration to find economical and robust solutions. For instance, Sparse Coding (SC) is one of the most successful frameworks to model neural computation at the local scale in the visual cortex. At the structural scale of the ventral visual pathways, the Predictive Coding (PC) theory has been proposed to model top-down and bottom-up interaction between cortical regions. The presented thesis introduces a model called the Sparse Deep Predictive Coding (SDPC) that combines Sparse Coding and Predictive Coding in a hierarchical and convolutional architecture. We analyze the SPDC from a computational and a biological perspective. In terms of computation, the recurrent connectivity introduced by the PC framework allows the SDPC to converge to lower prediction errors with a higher convergence rate. In addition, we combine neuroscientific evidence with machine learning methods to analyze the impact of recurrent processing at both the neural organization and representational level. At the neural organization level, the feedback signal of the model accounted for a reorganization of the V1 association fields that promotes contour integration. At the representational level, the SDPC exhibited significant denoising ability which is highly correlated with the strength of the feedback from V2 to V1. These results from the SDPC model demonstrate that neuro-inspiration might be the right methodology to design more powerful and more robust computer vision algorithms
APA, Harvard, Vancouver, ISO, and other styles
19

Munoz, François Julien. "Distribution régionale des espèces et dynamique des métapopulations : modèle hiérarchique d'habitat et inférence du taux relatif extension/colonisation." Montpellier 2, 2006. http://www.theses.fr/2006MON20012.

Full text
Abstract:
Une espèce ne peut survivre que si elle rencontre des conditions conformes à ses besoins biologiques, à sa niche. Mais à cause de la nature stochastique de leur propre dynamique et de celle de leur environnement, les populations sont vouées à s'éteindre. La survie d'une métapopulation, dès lors, dépend du balancier entre l'inéluctable extinction locale et la colonisation incessante de nouveaux espaces. Dans ce travail, nous considérons l'atlas floristique de la Drôme de Luc Garraud comme support à notre réflexion sur la dynamique spatiale des populations. Nous choisissons de concevoir la distribution d'une espèce comme le résultat de la dynamique d'une seule métapopulation. Nous avons montré l'importance des structures auto-organisées dans le temps et dans l'espace, ainsi que l'existence de mesures spatiales pertinentes, issues de l'analyse spectrale, pour étudier la dynamique des métapopulations. En définitive, nous proposons une méthode d'inférence pour estimer conjointement la niche et la dynamique spatiale des espèces. Nous avons pu établir par ce moyen quelques repères généraux sur la dynamique des plantes dans la Drôme. Finalement nous mettons en exergue quelques principes qui ont déterminé le succès de la démarche. Le principe d'incertitude souligne que l'imprécision de mesure spatiale peut mener à la pertinence écologique, en occultant l'empreinte locale des structures contingentes. En outre l'inférence des processus locaux, sans être globale, doit se faire à une échelle intermédiaire au regard des structures spatiales émergentes. L'étude spatiale de la niche, en terme d'habitat, est le point de rencontre de ces concepts, et leur alliance nouvelle offre ici des perspectives inédites en écologie des populations et des communautés
A species cannot survive locally unless its biological requirements are met (niche concept). However, because of the stochasticity of its own dynamics and of the dynamics of its environment, every population is doomed to go extinct. Hence the fate of a metapopulation depends on the balance between colonization and extinction of individual populations. The floristic atlas of the French Drôme district by Luc Garraud is the basis and the motivation of our research on this topic. We consider a species' distribution as the spatial map of a single metapopulation. A global theoretical investigation of the processes involved allows us to propose new developments. We show that self-organized spatial and temporal structures are of importance. We also demonstrate that appropriate spatial statistics using spectral analysis allow to evidence metapopulation dynamics. Finally we propose an inference framework that sequentially estimates niche properties and metapopulation features. We use this framework to establish some general ecological features of plant dynamics in the Drôme district. We highlight some principles that are of importance to infer ecological processes from spatial occurrence data. The uncertainty principle means that less precise indexes of spatial structure can provide more relevant ecological information, because they filter out local contingent structures. Also, local processes should be inferred using observations at an intermediate scale and not at the scale of the overall system: this allows taking into account the effect of emergent structures. The niche concept and its spatial counterpart, the habitat, are at the meeting point of such ideas. The perspectives we propose in our work offer interesting and promising milestones in the fields of population and community ecology
APA, Harvard, Vancouver, ISO, and other styles
20

Godard, Loig. "Modèle de Gestion Hiérarchique Distribuée pour la Reconfiguration et la Prise de Décision dans les Équipements de Radio Cognitive." Phd thesis, Université Rennes 1, 2008. http://tel.archives-ouvertes.fr/tel-00355352.

Full text
Abstract:
Ce travail porte sur la mise en oeuvre d'une architecture de gestion pour équipement radio cognitif en vue d'applications dans le domaine des radiocommunications. Ce projet pluridisciplinaire regroupe des domaines de compétence variés tels que : l'électronique, l'informatique et les sciences cognitives. L'architecture retenue porte le nom HDCRAM (Hierarchical and Distributed Cognitive Radio Management). HDCRAM est distribuée de façon hiérarchique au sein de l'équipement sur trois niveaux d'abstraction. Cette distribution hiérarchique permet de prendre en compte l'une des problématiques du domaine qui est l'hétérogénéité des plateformes d'exécution cible. HDCRAM propose une gestion fine tant du point de vue des mécanismes de reconfiguration que de la gestion des prises de décision menant à une reconfiguration de tout ou partie du système. Le cadre applicatif de cette architecture étant un domaine où la part logicielle devient de plus en plus prédominante sur la part matérielle, il est nécessaire de définir une interface commune. Ceci afin de faciliter le portage des logiciels sur un parc d'équipement en constante augmentation et par nature hétérogène. Grâce à une modélisation à haut niveau d'abstraction par l'utilisation du langage de modélisation UML nous avons pu définir HDCRAM de façon totalement indépendante des contraintes matérielles ce qui offre une possibilité étendue en termes de réutilisabilité et de modularité. Le choix de doter cette modélisation d'un métalangage de programmation exécutable tel que Kermeta permet, en plus de la modélisation à haut niveau d'abstraction, une simulation fonctionnelle de HDCRAM via une description comportementale.
APA, Harvard, Vancouver, ISO, and other styles
21

Godard, Loïg. "Modèle de gestion hiérarchique distribuée pour la reconfiguration et la prise de décision dans les équipements de radio cognitive." Rennes 1, 2008. https://tel.archives-ouvertes.fr/tel-00355352.

Full text
Abstract:
Le travail présenté porte sur la mise en œuvre d’une architecture de gestion pour équipement radio cognitif en vue d’applications dans le domaine des radiocommunications. L’architecture retenue porte le nom HDCRAM (Hierarchical and Distributed Cognitive Radio Architecture Management). HDCRAM est distribuée de façon hiérarchique au sein de l’équipement afin de prendre en compte l’une des problématiques qui est l’hétérogénéité des plateformes d’exécution. Grâce à une modélisation à haut niveau d’abstraction par l’utilisation d’UML nous avons pu définir HDCRAM de façon totalement indépendante des contraintes matérielles. Le choix de doter cette modélisation d’un métalangage de programmation exécutable nommé Kermeta permet d’ajouter une description comportementale. La finalité de ce travail est de proposer un simulateur qui permet de valider et de raffiner HDCRAM par la simulation de scénario radio cognitif. Ainsi le simulateur devient un outil de conception pour équipement Radio Cognitif
This work focuses on the implementation of a management architecture for cognitive radio equipment for applications in the field of radiocommunications. The architecture is named HDCRAM (Hierarchical and Distributed Cognitive Radio Architecture Management). HDCRAM is hierarchically distributed in the equipment to take into account heterogeneity of execution platforms. Thanks to a precise management for both reconfiguration and decision-making leading to a reconfiguration of all or part of the system. Through the use of UML language, for high level of abstraction modeling, we define a platform independent model of HDCRAM which offers an extended opportunity in terms of reusability and modularity. The choice to use an executable metamodeling language as Kermeta for HDCRAM allows describing both structural and behavioral part of our architecture and gives the opportunity to make functional simulation
APA, Harvard, Vancouver, ISO, and other styles
22

Bogadhi, Amarender R. "Une étude expérimentale et théorique de l'intégration de mouvement pour la poursuite lente : Un modèle Bayesien récurrent et hiérarchique." Thesis, Aix-Marseille, 2012. http://www.theses.fr/2012AIXM5009/document.

Full text
Abstract:
Cette thèse se compose de deux parties, concernant deux études expérimentales sur les mouvements oculaires de poursuite lente d'un stimulus visuel en mouvement (barre inclinée). La première étude aborde l'intégration dynamique de signaux locaux de mouvement visuel provenant de la rétine, tandis que la seconde porte sur l'influence de signaux extra-rétiniens sur l'intégration du mouvement. Un cadre théorique plus général est également proposé, sur la base d'un modèle bayésien récurrent et hiérarchique pour la poursuite lente. Pour la première étude, l'intégration dynamique de mouvement a été analysée en variant le contraste et la vitesse de la barre inclinée. Les résultats montrent que des vitesses plus élevées et des valeurs plus basses de contraste produisent un plus fort biais dans la direction initiale de poursuite et que successivement la dynamique d'intégration de mouvement est plus lente pour les contrastes faibles. Une version en boucle ouverte d'un modèle bayésien est proposée, où un réseau bayésien récurrent est connecté en cascade avec un modèle du système oculomoteur pour générer des réponses de poursuite lente. Les réponses du modèle reproduisent qualitativement les différentes dynamiques observées dans les réponses de poursuite à la barre inclinée en fonction des vitesses et des contrastes différents. La deuxième étude a enquêté sur les interactions dynamiques entre les signaux rétiniens et extra-rétiniens dans l'intégration dynamique de mouvement pour la poursuite lente par le moyen d'une suppression transitoire de la cible à différents moments de la poursuite, et notamment au cours de la phase de boucle ouverte et pendant l'état d'équilibre
This thesis addresses two studies by studying smooth pursuit eye movements for a translating tilted bar stimulus. First, the dynamic integration of local visual motion signals originating from retina and second, the influence of extra-retinal signals on motion integration. It also proposes a more generalized, hierarchical recurrent bayesian framework for smooth pursuit. The first study involved investigating dynamic motion integration for varying contrasts and speeds using a tilted bar stimuli. Results show that higher speeds and lower contrasts result in higher initial direction bias and subsequent dynamics of motion integration is slower for lower contrasts. It proposes an open-loop version of a recurrent bayesian model where a recurrent bayesian network is cascaded with an oculomotor plant to generate smooth pursuit responses. The model responses qualitatively account for the different dynamics observed in smooth pursuit responses to tilted bar stimulus at different speeds and contrasts. The second study investigated the dynamic interactions between retinal and extra-retinal signals in dynamic motion integration for smooth pursuit by transiently blanking the target at different moments during open-loop and steady-state phases of pursuit. The results suggest that weights to retinal and extra-retinal signals are dynamic in nature and extra-retinal signals dominate retinal signals on target reappearance after a blank introduced during open-loop of pursuit when compared to a blank introduced during steady-state of pursuit. The previous version of the model is updated to a closed-loop version and extended to a hierarchical recurrent bayesian model
APA, Harvard, Vancouver, ISO, and other styles
23

Fabre, Karine. "L’influence de l’évolution des modes de financement des entreprises sur le modèle comptable français entre 1890 et 1939." Paris 9, 2008. https://portail.bu.dauphine.fr/fileviewer/index.php?doc=2008PA090047.

Full text
Abstract:
L’objectif de cette thèse est de mettre en évidence l’influence des modes de financement sur les pratiques comptables, entre 1890 et 1939, en France. Cette période a été choisie en raison de l’absence de normalisation comptable, offrant la plus grande liberté d’action aux industriels dans leurs pratiques comptables. Par ailleurs, ces années se caractérisent par un accès potentiel à différents moyens de financement externe. Deux études de cas ont été menées à partir des rapports annuels d’Assemblée Générale des sociétés Schneider et L’Air Liquide. La première se distingue par un recours important à l’autofinancement. Cette structure de financement est favorisée par l’application d’un modèle comptable statique, inchangé entre 1890 et 1939. En revanche, L’Air Liquide se caractérise par un recours récurrent à des augmentations de capital pour financer sa croissance. Les pratiques comptables de cette société s’inscrivent alors dans une conception dynamique de la comptabilité. A travers ces études de cas, la thèse montre l’existence d’une relation étroite entre les modes de financement et les pratiques comptables. L’explication de cette influence nécessite néanmoins la prise en compte de facteurs tels que la structure de l’actionnariat, le secteur d’activité, ou encore le profil des dirigeants
The objective of this thesis is to study the influence of financing choices on the accounting practices prevailing in France over the period 1890-1939. The choice of this particular period is due to the absence of accounting standards, which allowed firms to choose their accounting practices with a large degree of freedom. On the other hand, in this period, firms benefited from a potential access to different external sources of financing. The thesis presents two case studies, based on the analysis of annual reports of two French companies, Schneider and L’Air Liquide. The first company relied heavily on self-financing. This financing choice was encouraged by the application of a static accounting system, which remains unchanged between 1890 and 1939. The second one resorted recurrently to capital increases to finance its growth. This choice of financing implied the adoption of a dynamic approach to accounting. Through these case studies, the thesis proves the existence of a close relationship between financing choices and accounting practices. Such relationship can only be explained by resorting to a broader set of factors, such as shareholder structure, sector of activity, and managers’ profile
APA, Harvard, Vancouver, ISO, and other styles
24

Champagne, Lucie. "Le financement des pensionnats de jeunes filles au Québec : le modèle de la congrégation des Soeurs de Sainte-Anne, 1850-1950." Mémoire, Université de Sherbrooke, 1988. http://hdl.handle.net/11143/9380.

Full text
Abstract:
Jusqu'à une date récente, l'histoire de l'éducation des filles demeurait un champ d'étude encore pratiquement inexploré. Plusieurs ouvrages ont cependant déjà traité de la question de l'éducation au Québec à différents points de vue. Le plus récent et le plus complet semble être la grande synthèse de Louis-Philippe Audet, Histoire de l'enseignement au Québec, 1608-1971. Audet y traite de plusieurs aspects: législation, administration, pédagogie, qui nous permettent de retracer l'évolution du système scolaire québécois. Mais comme tous les auteurs des études reliées à ce domaine, Audet n'établit aucune distinction entre l'éducation des filles et celle des garçons. Par ailleurs, il paraît conscient du fait qu'il ne s'attarde pas à l'éducation des filles sur des avenues spécifiques: "Nous avons conscience de n'avoir pas rendu tout à fait justice à l'enseignement ménager et familial qui a connu, au Québec, durant un quart de siècle, voire un demi-siècle, une vogue de plus en plus considérable". La place accordée à l'éducation des filles dans cet ouvrage est sensiblement nulle. Ce constat est exemplaire et se retrouve dans la majorité des ouvrages consacrés à l'histoire de l'éducation. Depuis le début des années 1980, plusieurs historiennes ont commencé à s'intéresser à ce sujet. Elles ont vite perçu le rôle important joué par les congrégations religieuses féminines dans ce secteur et des recherches furent orientées dans cette direction. Ces recherches touchent différents aspects de la vie pédagogique des couvents: les programmes, la clientèle étudiante, la philosophie de l'enseignement, les manuels scolaires, les activités para-scolaires, les journaux étudiants. En sont résultées plus d'une douzaine de monographies concernant autant de congrégations. […]
APA, Harvard, Vancouver, ISO, and other styles
25

Fabre, Karine. "L'influence de l'évolution des modes de financement des entreprises sur le modèle comptable français (1890-1939) - Les cas Schneider et L'Air Liquide." Phd thesis, Université Paris Dauphine - Paris IX, 2008. http://tel.archives-ouvertes.fr/tel-00472904.

Full text
Abstract:
L'objectif de cette thèse est de mettre en évidence l'influence des modes de financement sur les pratiques comptables, entre 1890 et 1939, en France. Cette période a été choisie en raison de l'absence de normalisation comptable, offrant la plus grande liberté d'action aux industriels dans leurs pratiques comptables. Par ailleurs, ces années se caractérisent par un accès potentiel à différents moyens de financement externe. Deux études de cas ont été menées à partir des rapports annuels d'Assemblée Générale des sociétés Schneider et L'Air Liquide. La première se distingue par un recours important à l'autofinancement. Cette structure de financement est favorisée par l'application d'un modèle comptable statique, inchangé entre 1890 et 1939. En revanche, L'Air Liquide se caractérise par un recours récurrent à des augmentations de capital pour financer sa croissance. Les pratiques comptables de cette société s'inscrivent alors dans une conception dynamique de la comptabilité. A travers ces études de cas, la thèse montre l'existence d'une relation étroite entre les modes de financement et les pratiques comptables. L'explication de cette influence nécessite néanmoins la prise en compte de facteurs tels que la structure de l'actionnariat, le secteur d'activité, ou encore le profil des dirigeants.
APA, Harvard, Vancouver, ISO, and other styles
26

Minois, Nathan. "Etude de consistance et applications du modèle Poisson-gamma : modélisation d'une dynamique de recrutement multicentrique." Thesis, Toulouse 3, 2016. http://www.theses.fr/2016TOU30396/document.

Full text
Abstract:
Un essai clinique est une recherche biomédicale pratiquée sur l'Homme dont l'objectif est la consolidation et le perfectionnement des connaissances biologiques ou médicales. Le nombre de sujets nécessaire (NSN) est le nombre minimal de patients à inclure dans l'essai afin d'assurer au test statistique une puissance donnée pour observer un effet donné. Pour ce faire plusieurs centres investigateurs sont sollicités. La période entre l'ouverture du premier centre investigateur et le recrutement du dernier patient est appelée période de recrutement que l'on souhaite modéliser. Les premières modélisations remontent à presque 50 ans avec les travaux de Lee, Williford et al. et Morgan avec l'idée déjà d'une modélisation de la dynamique de recrutement par des processus de Poisson. Un problème émerge lors de recrutement multicentriques du fait du manque de caractérisation de l'ensemble des sources de variabilité agissant sur les différentes dynamiques de recrutement. Le modèle dit Poisson-gamma basé sur un processus de Poisson dont les intensités par centre sont considérées comme un échantillon de loi gamma permet l'étude de variabilité. Ce modèle est au coeur de notre projet. Différents objectifs ont motivés la réalisation de cette thèse. Le premier questionnement porte sur la validité de ces modèles. Elle est établie de façon asymptotique et une étude par simulation permet de donner des informations précises sur la validité du modèle. Par la suite l'analyse de bases de données réelles a permis de constater que lors de certaines phases de recrutement, des pauses dans le recrutement sont observables. Une question se pose alors naturellement : comment et faut-il prendre en compte ces informations dans le modèle de dynamique de recrutement ? Il résulte d'études par simulation que la prise en compte de ces données n'améliore pas les performances prédictives du modèle lorsque les sources d'interruptions sont aléatoires mais dont la loi est inchangée au cours du temps. Une autre problématique observable sur les données et inhérente au problème de recrutement de patients est celle des dites sorties d'étude. Une technique Bayésienne empirique analogue à celle du processus de recrutement peut être introduite pour modéliser les sorties d'étude. Ces deux modélisations se couplent très bien et permettent d'estimer la durée de recrutement ainsi que la probabilité de sorties d'étude en se basant sur les données de recrutement d'une étude intermédiaire, donnant des prédictions concernant le processus de randomisation. La dynamique de recrutement possède de multiples facteurs autre que le temps de recrutement. Ces aspects fondamentaux couplés au modèle Poisson-gamma fournissent des indicateurs pertinents pour le suivi des essais. Ainsi est-il possible d'ajuster le nombre de centres au cours de l'essai en fonction d'objectifs prédéfinis, de modéliser et prévoir la chaîne d'approvisionnement nécessaire lors de l'essai et de prévoir l'effet de la randomisation des patients par région sur la puissance du test de l'essai. Il permet également d'avoir un suivi des patients après randomisation permettant ainsi de prévoir un ajustement du nombre de patients en cas de pertes significative d'effectif, ou d'abandonner un essai si les résultats préliminaires sont trop faibles par rapport aux risques connus et observés. La problématique de la dynamique de recrutement peut être couplée avec la dynamique de l'étude en elle-même quand celle-ci est longitudinale. L'indépendance des deux processus permet une estimation facile des différents paramètres. Le résultat est un modèle global du parcours du patient dans l'essai. Deux exemples clés de telles situations sont les données de survie - la modélisation permet alors d'estimer la durée d'un essai quand le critère d'arrêt est le nombre d'événements observés et les modèles de Markov - la modélisation permet alors d'estimer le nombre de patients dans un certain état au bout d'un certain temps
A clinical trial is a biomedical research which aims to consolidate and improve the biological and medical knowledges. The number of patients required il the minimal number of patients to include in the trial in order to insure a given statistical power of a predefined test. The constitution of this patients' database is one of the fundamental issues of a clinical trial. To do so several investigation centres are opened. The duration between the first opening of a centre and the last recruitment of the needed number of patients is called the recruitemtn duration that we aim to model. The fisrt model goes back 50 years ago with the work of Lee, Williford et al. and Morgan with the idea to model the recruitment dynamic using Poisson processes. One problem emerge, that is the lack of caracterisation of the variabliity of recruitment between centers that is mixed with the mean of the recruitment rates. The most effective model is called the Poisson-gamma model which is based on Poisson processes with random rates (Cox process) with gamma distribution. This model is at the very heart of this project. Different objectives have motivated the realisation of this thesis. First of all the validity of the Poisson-gamma model is established asymptotically. A simulation study that we made permits to give precise informations on the model validity in specific cases (function of the number of centers, the recruitement duration and the mean rates). By studying database, one can observe that there can be breaks during the recruitment dynamic. A question that arise is : How and must we take into account this phenomenon for the prediction of the recruitment duration. The study made tends to show that it is not necessary to take them into account when they are random but their law is stable in time. It also veered around to measure the impact of these breaks on the estimations of the model, that do not impact its validity under some stability hypothesis. An other issue inherent to a patient recruitment dynamic is the phenomenon of screening failure. An empirical Bayesian technique analogue to the one of the recruitment process is used to model the screening failure issue. This hierarchical Bayesian model permit to estimate the duartion of recruitment with screening failure consideration as weel as the probability to drop out from the study using the data at some interim time of analysis, giving predictions on the randomisation dynamic. The recruitment dynamic can be studied in many different ways than just the duration of recruitment. These fundamental aspects coupled with the Poisson-gamma model give relevant indicators for the study follow-up. Multiples applications in this sense are computed. It is therefore possible to adjust the number of centers according to predefined objectives, to model the drug's supply chain per region or center and to predict the effect of the randomisation on the power of the test's study. It also allows to model the folow-up period of the patients by means of transversal or longitudinal methods, that can serve to adjust the number of patients if too many quit during the foloww-up period, or to stop the study if dangerous side effects or no effects are observed on interim data. The problematic of the recruitment dynamic can also be coupled with the dynamic of the study itself when it is longitudinal. The independance between these two processes allows easy estimations of the different parameters. The result is a global model of the patient pathway in the trail. Two key examples of such situations are survival data - the model permit to estimate the duration of the trail when the stopping criterion is the number of events observed, and the Markov model - the model permit to estimate the number of patients in a certain state for a given duartion of analysis
APA, Harvard, Vancouver, ISO, and other styles
27

Gaud, Nicolas A. "Systèmes multi--agents holoniques : de l'analyse à l'implantation : méta-modèle, méthodologie, et simulation multi-niveaux." Besançon, 2007. http://www.theses.fr/2007BESA2014.

Full text
Abstract:
Cette thèse propose un guide méthodologique pour l'analyse, la conception, l'implantation et la simulation des Systèmes Multi-Agents Holoniques (SMAH). Ce type de système repose sur une structure hiérarchique auto-similaire, une structure gigogne où les agents sont composés d'agents. La brique de construction de tels systèmes est nommée Holon. Un holon est une entité qui, selon le niveau d'observation, peut être vu, soit comme une partie composante d'un élément de niveau supérieur, soit comme un tout composé d'autres holons. Les SMAH sont utilisés pour analyser les systèmes considérés comme complexes. Ces derniers exhibent généralement une structure hiérarchique où le système est composé de sous--systèmes qui, à leur tour, ont leurs propres sous-systèmes. L'approche adoptée dans cette thèse consiste à exploiter la nature intrinsèquement hiérarchique des systèmes complexes pour les analyser et les modéliser. Afin de concevoir des modèles modulaires et réutilisables, une approche organisationnelle est adoptée. Le principe de l'analyse repose sur l'identification d'une hiérarchie d'organisations, dont le comportement globale est en mesure de représenter le système selon une certaine perspective. Les comportements du système sont récursivement décomposés en un ensemble de sous-comportements en interaction, chacun d'entre eux étant à son tour décomposé jusqu'à atteindre un niveau où les comportements correspondants peuvent être considérés comme élémentaires. A un niveau donné, le comportement composé est représenté par une organisation, et les sous-comportements associés par des rôles. Cette hiérarchie d'organisations est ensuite projetée sur une holarchie (hiérarchie de holons) en charge de lui donner vie et d'exécuter les comportements qui la composent. En sus de la modélisation des systèmes complexes, cette thèse aborde également les problématiques liées à leur simulation. Simuler précisément de tels systèmes requiert généralement d'importantes ressources de calcul. La simulation multi-niveaux permet d'obtenir un compromis entre la précision de la simulation et les ressources de calcul disponibles. L'approche défendue dans ce manuscrit exploite les propriétés des SMAH pour concevoir un modèle de simulation multi-agents multi-niveaux, lequel est ensuite appliquée à la simulation de piétons en environnements urbains visuels
The work, presented in this PhD thesis, is concerned with the study of complex systems and aims at provinding a full set of abstractions and the associated methodological guidelines for the analysis, design, implementation and simulation of Holonic MultiAgent Systems (HMAS). HMAS offers a promising software engineering approach for developing complex open software systems. This kind of systems consists in self-similar structures called holons. A set of holons maybe seen, depending on the level of observation, as a unique entity or as a group of holons in interaction. A complex system is made up of a large number of parts that have many interactions. In such systems, the behavior of the whole cannot be directly understood only by knowing the behavior of the parts and their interactions. Complex systems often exhibit a hierarchical structure. The foundation of this thesis consist in exploiting the intrinsic hierarchical structure of complex systems toa analyse and decompose them. In order to conceive modular and reusable models, an organizational approacg is adopted. The principle of the analysis is based on the identification of a hierarchy of organizations, which the global behavior may represent the system under the chosen perspective. The behaviors of the system are recursively decomposed into a set on interacting sub-behaviors, each of these latter being in turn decomposed until we reach some lowest level of elementary sub-behaviors. At a given level, the composed behavior is modeled unsing an organization, and the associated sub-behaviors using roles. The hierarchical organization structure is then mapped to holarchy (hierarchy of holons) in charge of its execution. The concepts presented are then used to study the issues related to the multilevel multiagent simulation. The resulting model is finally applied th the pedestrians simulation in virtual environment
APA, Harvard, Vancouver, ISO, and other styles
28

Chagneau, Pierrette. "Modélisation bayésienne hiérarchique pour la prédiction multivariée de processus spatiaux non gaussiens et processus ponctuels hétérogènes d'intensité liée à une variable prédite : application à la prédiction de la régénération en forêt tropicale humide." Montpellier 2, 2009. http://www.theses.fr/2009MON20157.

Full text
Abstract:
Un des points faibles des modèles de dynamique forestière spatialement explicites est la modélisation de la régénération. Un inventaire détaillé du peuplement et des conditions environnementales a permis de mettre en évidence les effets de ces deux facteurs sur la densité locale de juvéniles. Mais en pratique, la collecte de telles données est coûteuse et ne peut être réalisée à grande échelle : seule une partie des juvéniles est échantillonnée et l'environnement n'est connu que partiellement. L'objectif est ici de proposer une approche pour prédire la répartition spatiale et le génotype des juvéniles sur la base d'un échantillonnage raisonnable des juvéniles, des adultes et de l'environnement. La position des juvéniles est considérée comme la réalisation d'un processus ponctuel marqué, les marques étant constituées par les génotypes. L'intensité du processus traduit les mécanismes de dispersion à l'origine de l'organisation spatiale et de la diversité génétique des juvéniles. L'intensité dépend de la survie des graines, qui dépend elle-même des conditions environnementales. Il est donc nécessaire de prédire l'environnement sur toute la zone d'étude. L'environnement, représenté par un champ aléatoire multivarié, est prédit grâce à un modèle hiérarchique spatial capable de traiter simultanément des variables de nature différente. Contrairement aux modèles existants où les variables environnementales sont considérées comme connues, le modèle de régénération proposé doit prendre en compte les erreurs liées à la prédiction de l'environnement. La méthode est appliquée à la prédiction de la régénération des juvéniles en forêt tropicale (Guyane française)
One of the weak points of forest dynamics models is the recruitment. Classically, ecologists make the assumption that recruitment mainly depends on both spatial pattern of mature trees and environment. A detailed inventory of the stand and the environmental conditions enabled them to show the effects of these two factors on the local density of seedlings. In practice, such information is not available: only a part of seedlings is sampled and the environment is partially observed. The aim of the paper is to propose an approach in order to predict the spatial distribution and the seedlings genotype on the basis of a reasonable sampling of seedling, mature trees and environmental conditions. The spatial pattern of the seedlings is assumed to be a realization of a marked point process. The intensity of the process is not only related to the seed and pollen dispersal but also to the sapling survival. The sapling survival depends on the environment; so the environment must be predicted on the whole study area. The environment is characterized through spatial variables of different nature and predictions are obtained using a spatial hierarchical model. Unlike the existing models which assume the environmental covariables as exactly known, the recruitment model we propose takes into account the error related to the prediction of the environment. The prediction of seedling recruitment in tropical rainforest in French Guiana illustrates our approach
APA, Harvard, Vancouver, ISO, and other styles
29

Liang, Yan. "Mise en œuvre d'un simulateur en OCCAM pour la conception d'architectures parallèles à base d'une structure multiprocesseur hiérarchique." Compiègne, 1989. http://www.theses.fr/1989COMPD176.

Full text
Abstract:
La simulation est devenue une étape indispensable dans la phase de conception de machines parallèles et permet d'éviter la construction de prototypes couteux. Dans cette thèse, un simulateur orienté vers des processus parallèles en langage OCCAM a été développé. Notre objectif a été de concevoir un simulateur adapté à un réseau de transputers pour la réalisation d'un prototype de machine parallèle utilisant des liaisons directes entre les transputers par les canaux séries. A titre d'exemple de simulation, une architecture parallèle (coprocesseur) à base d'une structure multiprocessor hiérarchique : maître-esclave a été réalisée au niveau processeur-mémoire-commutateur. La performance théorique est évaluée à l'aide des deux modèles analytiques dont l'un est une combinaison de systèmes ouverts M/M/1, et l'autre est un système ouvert M/M/s. La performance expérimentale a été mesurée respectivement sur les tâches indépendantes et les tâches séquentielles. La configuration expérimentale de sa performance théorique permet d'avoir un aperçu général sur les avantages et les limites d'une structure coprocesseur et d'envisager une implémentation ultérieure
The simulation has become an indispensable phase for conception of parallel processing systems, and enables to avoid construction of expensive prototypes. In this paper, a parallel process-oriented simulator written in OCCAM language has been developed. Our objective is to conceive a simulator adapted to a network of transputers for prototyping parallel processing systems by connecting directly the serial transputer channels. As a simulation example, a parallel processor system (coprocessor) based on hierarchical structure : master-slave has been realized at the processor-memory-switch level. The performance analysis is obtained via two queuing models : the former as independent M/M/1 systems and the latter as a M/M/s system. The experimental performance is measured respectively based on the independent tasks and the sequential tasks. The comparison of analytic and experimental results enables us to constate the advantage and limit of the coprocessor and to encourage us to its implementation
APA, Harvard, Vancouver, ISO, and other styles
30

Li, Chong. "Un modèle de transition logico-matérielle pour la simplification de la programmation parallèle." Phd thesis, Université Paris-Est, 2013. http://tel.archives-ouvertes.fr/tel-00952082.

Full text
Abstract:
La programmation parallèle et les algorithmes data-parallèles sont depuis plusieurs décennies les principales techniques de soutien l'informatique haute performance. Comme toutes les propriétés non-fonctionnelles du logiciel, la conversion des ressources informatiques dans des performances évolutives et prévisibles implique un équilibre délicat entre abstraction et automatisation avec une précision sémantique. Au cours de la dernière décennie, de plus en plus de professions ont besoin d'une puissance de calcul très élevée, mais la migration des programmes existants vers une nouvelle configuration matérielle et le développement de nouveaux algorithmes à finalité spécifique dans un environnement parallèle n'est jamais un travail facile, ni pour les développeurs de logiciel, ni pour les spécialistes du domaine. Dans cette thèse, nous décrivons le travail qui vise à simplifier le développement de programmes parallèles, en améliorant également la portabilité du code de programmes parallèles et la précision de la prédiction de performance d'algorithmes parallèles pour des environnements hétérogènes. Avec ces objectifs à l'esprit, nous avons proposé un modèle de transition nommé SGL pour la modélisation des architectures parallèles hétérogènes et des algorithmes parallèles, et une mise en œuvre de squelettes parallèles basés sur le modèle SGL pour le calcul haute performance. SGL simplifie la programmation parallèle à la fois pour les machines parallèles classiques et pour les nouvelles machines hiérarchiques. Il généralise les primitives de la programmation BSML. SGL pourra plus tard en utilisant des techniques de Model-Driven pour la génération de code automatique á partir d'une fiche technique sans codage complexe, par exemple pour le traitement de Big-Data sur un système hétérogène massivement parallèle. Le modèle de coût de SGL améliore la clarté de l'analyse de performance des algorithmes, permet d'évaluer la performance d'une machine et la qualité d'un algorithme
APA, Harvard, Vancouver, ISO, and other styles
31

Mialocq, Denis. "Le financement à court terme des moyennes entreprises non cotées françaises : etude en données de panel." Thesis, Bordeaux, 2017. http://www.theses.fr/2017BORD0654/document.

Full text
Abstract:
Le financement à court terme est le parent pauvre de la théorie financière. Pourtant, les moyennes entreprises françaises utilisent fortement ce financement. Ce travail a pour objectif d’analyser les déterminants du financement à court terme pour ces entreprises. La première partie vise à établir une revue de littérature des théories permettant d’expliquer l’utilisation du financement à court terme. La deuxième partie vient tester empiriquement ces théories sur deux échantillons, à savoir 201 entreprises familiales et 1 453 entreprises managériales. Il s’agit, d’une part, de caractériser les moyennes entreprises non cotées et d’autres part, de mettre en évidence les déterminants à l’utilisation de financement à court terme. Les principaux résultats indiquent que le financement à court terme est un outil de gestion au service de la moyenne entreprise. Il peut aussi assumer deux rôles, un compensatoire et/ou un de trésorerie passive. Par ailleurs, on met en évidence que les entreprises managériales et familiales exploitent différemment le financement à court terme
Short-term financing is forgotten by theory of corporate finance. However, French medium-sized firms use a lot this source of funding. The objective of this thesis is to analyze the determinants of short-term financing for these firms. The first part aims to establish a literature review of theories to explain the use of short-term financing. The second part empirically checks these theories on two samples, specifically 201 family businesses and 1,453 managerial firms. On the one hand, it is a question of characterizing the unlisted medium-sized enterprises and on the other hand, highlighting the determinants of the use of short-term financing. The primary results indicate that short-term financing is a management tool for the medium-sized enterprise. It can also have two functions, one compensatory and / or one passive cash. Furthermore, it brings out that managerial and family businesses exploit short-term financing differently
APA, Harvard, Vancouver, ISO, and other styles
32

Hauw, Nicolas. "Un test des déterminants internes de la motivation situationnelle en contexte naturel : approche hiérarchique de la motivation en Education Physique et Sportive." Phd thesis, Université de Caen, 2006. http://tel.archives-ouvertes.fr/tel-00197168.

Full text
Abstract:
L'objet de cette thèse était d'examiner les relations entre d'une part les motivations de l'élève en EPS et d'autre part celles pour les activités physiques et sportives. Le modèle hiérarchique de la motivation intrinsèque et extrinsèque (MHMIE, Vallerand, 1997) postule que la motivation d'un individu dans une tâche spécifique dépend de facteurs psychologiques internes telles que ses motivations dans un ou plusieurs contextes de vie en lien avec la situation vécue. Une première étude (N = 371) s'est attachée à vérifier cette source d'influence dans le contexte de l'Education Physique et Sportive (EPS). Les résultats obtenus par des méthodes d'équations structurelles démontrent que les motivations de l'élève vis-à-vis des activités sportives pratiquées en dehors de l'école n'influencent pas directement ses motivations durant la leçon d'EPS. Cette relation s'avère médiée par la motivation contextuelle en EPS. Une seconde étude (n = 171) a testé les effets descendants et ascendants entre les deux niveaux hiérarchiques de généralité. Conformément au MHMIE, les résultats obtenus confirment la relation de réciprocité dans le temps entre les motivations situationnelle et contextuelle en EPS. Enfin, notre démarche nous a conduit à démontrer l'existence d'un conflit motivationnel ressenti par l'élève au sein même de la séance d'EPS (N = 203). Notre travail nous permet finalement de conclure que la perception par l'élève de la nature de la séance détermine le lien unissant sa motivation situationnelle à l'une ou l'autre de ses motivations contextuelles (i.e. dans les sports ou en EPS).
APA, Harvard, Vancouver, ISO, and other styles
33

Clertant, Matthieu. "Semi-parametric bayesian model, applications in dose finding studies." Thesis, Paris 6, 2016. http://www.theses.fr/2016PA066230/document.

Full text
Abstract:
Les Phases I sont un domaine des essais cliniques dans lequel les statisticiens ont encore beaucoup à apporter. Depuis trente ans, ce secteur bénéficie d'un intérêt croissant et de nombreuses méthodes ont été proposées pour gérer l'allocation séquentielle des doses aux patients intégrés à l'étude. Durant cette Phase, il s'agit d'évaluer la toxicité, et s'adressant à des patients gravement atteints, il s'agit de maximiser les effets curatifs du traitement dont les retours toxiques sont une conséquence. Parmi une gamme de doses, on cherche à déterminer celle dont la probabilité de toxicité est la plus proche d'un seuil souhaité et fixé par les praticiens cliniques. Cette dose est appelée la MTD (maximum tolerated dose). La situation canonique dans laquelle sont introduites la plupart des méthodes consiste en une gamme de doses finie et ordonnée par probabilité de toxicité croissante. Dans cette thèse, on introduit une modélisation très générale du problème, la SPM (semi-parametric methods), qui recouvre une large classe de méthodes. Cela permet d'aborder des questions transversales aux Phases I. Quels sont les différents comportements asymptotiques souhaitables? La MTD peut-elle être localisée? Comment et dans quelles circonstances? Différentes paramétrisations de la SPM sont proposées et testées par simulations. Les performances obtenues sont comparables, voir supérieures à celles des méthodes les plus éprouvées. Les résultats théoriques sont étendus au cas spécifique de l'ordre partiel. La modélisation de la SPM repose sur un traitement hiérarchique inférentiel de modèles satisfaisant des contraintes linéaires de paramètres inconnus. Les aspects théoriques de cette structure sont décrits dans le cas de lois à supports discrets. Dans cette circonstance, de vastes ensembles de lois peuvent aisément être considérés, cela permettant d'éviter les cas de mauvaises spécifications
Phase I clinical trials is an area in which statisticians have much to contribute. For over 30 years, this field has benefited from increasing interest on the part of statisticians and clinicians alike and several methods have been proposed to manage the sequential inclusion of patients to a study. The main purpose is to evaluate the occurrence of dose limiting toxicities for a selected group of patients with, typically, life threatening disease. The goal is to maximize the potential for therapeutic success in a situation where toxic side effects are inevitable and increase with increasing dose. From a range of given doses, we aim to determine the dose with a rate of toxicity as close as possible to some threshold chosen by the investigators. This dose is called the MTD (maximum tolerated dose). The standard situation is where we have a finite range of doses ordered with respect to the probability of toxicity at each dose. In this thesis we introduce a very general approach to modeling the problem - SPM (semi-parametric methods) - and these include a large class of methods. The viewpoint of SPM allows us to see things in, arguably, more relevant terms and to provide answers to questions such as asymptotic behavior. What kind of behavior should we be aiming for? For instance, can we consistently estimate the MTD? How, and under which conditions? Different parametrizations of SPM are considered and studied theoretically and via simulations. The obtained performances are comparable, and often better, to those of currently established methods. We extend the findings to the case of partial ordering in which more than one drug is under study and we do not necessarily know how all drug pairs are ordered. The SPM model structure leans on a hierarchical set-up whereby certain parameters are linearly constrained. The theoretical aspects of this structure are outlined for the case of distributions with discrete support. In this setting the great majority of laws can be easily considered and this enables us to avoid over restrictive specifications than can results in poor behavior
APA, Harvard, Vancouver, ISO, and other styles
34

Bavay, Cécile. "Adaptation des méthodologies d’évaluation sensorielle aux produits agroalimentaires à forte variabilité." Angers, 2013. https://theses.hal.science/tel-00846841.

Full text
Abstract:
Les caractéristiques sensorielles peuvent être mesurées par des méthodes descriptives d'évaluation sensorielle, parmi lesquelles le profil conventionnel. Les résultats sensoriels de profil présentent une forte variabilité, due, d'une part aux différences entre les sujets du panel, et d'autre part à la variabilité intra-lot, et notamment aux différences existant entre les individus d'un échantillon. À ce jour, la variabilité des sujets est prise en compte et les méthodologies de collecte et d'analyse des données ont été adaptées dans ce but. Néanmoins, la variabilité intra-lot n'a pas été abordée, malgré le challenge qu'elle représente. Avec pour produit modèle la pomme, ce travail de thèse aborde la problématique de la variabilité intra-lot sous deux angles : la mesure de la variabilité et la réduction de la variabilité, dans le but d'obtenir une mesure sensorielle plus fiable. Premièrement, la capacité de discrimination du panel a été observée entre les variétés étudiées et entre les fruits de chaque variété, identifiés comme différents selon une mesure instrumentale. Deuxièmement, afin de prendre en compte la variabilité intra-lot, le modèle d'analyse de la variance classiquement utilisé en évaluation sensorielle a été adapté avec l'ajout d'un facteur fruit hiérarchisé au facteur variété. Cette adaptation implique le partage de chaque fruit par plusieurs sujets. L'application de ce modèle a démontré l'importance de la variabilité intra-lot et l'importance du choix du modèle pour obtenir des résultats plus pertinents. De plus, le modèle d'analyse de la variance déterminé a été adapté afin de distinguer désaccord pur entre les sujets et différences de dispersion. Enfin, une réduction de la variabilité effective est obtenue par le partage des fruits ou par une homogénéisation instrumentale, cette dernière étant dépendante de la variété et de la mesure choisie. Les résultats de ce travail apportent des clés méthodologiques pour l'obtention de résultats fiables dans la cadre de l'évaluation sensorielle de produits variables
The sensory characteristics are evaluated by descriptive methods of sensory evaluation, such as the conventional profile. The sensory results from profiling present a large variability, due to differences between assessors on the one hand, and within-batch variability, that is differences between units of a sample, on the other hand. To date, differences between assessors are taken into account and sensory methodologies have been adapted for that. Nevertheless, within-batch variability has not been tackled, despite the challenge it represents. With the apple as a model, this PhD work addresses the issue of within-batch variability from two points of view: the measuring of variability and the reduction of variability, with the aim of improving the reliability of the sensory measure. First, the capacity of the panel to discriminate between apples from different cultivars and between apples, identified as different by an instrumental measure, within each cultivar has been observed. Second, in order to take within-batch variability into account, the standard models for analysis of variance used in sensory evaluation has been adapted by adding a fruit factor nested within the cultivar factor. This adaptation requires the sharing of each piece of fruit by several assessors. The application of this model has demonstrated the importance of within-batch variability and the consequence of model choice to obtain more relevant results. In addition, the determined model for analysis of variance has been adapted to distinguish between assessors' disagreement and scaling differences. Finally, a reduction of variability has been obtained through the sharing of fruits and after the homogenization by instrumental measurement, the latter depending on the cultivar and on the chosen measure. The results of the present work provide methodological keys to obtain reliable sensory results in the frame of the evaluation of products subject to biological variation
APA, Harvard, Vancouver, ISO, and other styles
35

Trespeuch, Léo. "La participation du consommateur, antécédents et conséquences : proposition d’un modèle intégrateur appliqué au cas du crowdfunding." Thesis, Université Grenoble Alpes (ComUE), 2017. http://www.theses.fr/2017GREAG009.

Full text
Abstract:
Au sein de la littérature émergente sur le crowdfunding, les études ont tenté de cerner les apports de cette nouvelle forme de participation pour les consommateurs et pour les entreprises (Belleflamme et al., 2010; Davis et al., 2017; Ordanini et al., 2011; Tomczak et Brem, 2013; Vulkan et al., 2016). Pour les entreprises, le crowdfunding permet de recueillir des fonds dans le but de créer ou distribuer un nouveau produit (Belleflamme et al., 2014). Sur le plan marketing, il permet de tester un concept et d’ajuster ensuite le mix marketing (Belleflamme et al. 2014; Ducarroz et al. 2016), tandis que le crowdfunding permet aux internautes d’étendre leur participation à la vie des entreprises en ajoutant une dimension financière. A partir d’une analyse de la littérature et d’une netnographie de communautés virtuelles réunies autour de projets de crowdfunding, cette thèse propose un modèle intégrateur, causes-conséquences de la participation appliqué aux campagnes de Crowdfunding. L'objectif est d'étudier de manière holistique la participation aux campagnes de crowdfunding. A notre connaissance cela n’a jamais été réalisé jusqu’alors.Concernant la « participation », cette recherche aboutit à proposer la définition suivante : « Participer, c’est prendre part de manière financière, créative ou sociale au projet de l’entreprise ». Ce nouveau construit et sa mesure ont permis de mettre en perspective dans le cas du crowdfunding les déterminants et conséquences suivants : innovativité, altruisme, besoin d’appartenance, avantages perçus, risques perçus, description du projet, description de l’auteur du projet, relation à la marque. Au travers de ces déterminants et conséquences, cette recherche parvient à expliquer en grande partie les comportements de participation à des campagnes de Crowdfunding. Aussi, cette recherche apporte également pour la première fois à la littérature du crowdfunding, un modèle validé empiriquement au travers des équations structurelles. En effet, le modèle conceptuel testé auprès de 445 individus ayant déjà participé à une campagne crowdfunding montre une stabilité psychométrique satisfaisante. Les résultats démontrent que les principaux antécédents à la participation aux campagnes de crowdfunding sont l’innovativité et la recherche d’un bénéfice supérieur aux risques. A l’opposé, en aval du modèle, la principale conséquence de la participation porte sur la dimension affective de la relation à la marque. Sur le plan managérial, nos résultats offrent aussi plusieurs contributions pour comprendre la participation et ses dimensions (Sociales, Créatives et Financières) via l’approche IPMA
In emerging literature on crowdfunding, studies have attempted to identify the contributions of this new form of participation from each of the consumer and business standpoints (Belleflamme et al., 2010; Davis et al., 2017; Ordanini et al., 2011; Tomczak and Brem, 2013; Vulkan et al., 2016). Crowdfunding enables businesses to garner funds earmarked for the creation or distribution of new products (Belleflamme et al., 2014), while providing marketers with the wherewithal for testing concepts and adjusting marketing mix (Belleflamme et al., 2014; Ducarroz et al., 2016). Through the addition of a financial component, crowdfunding permits Internet users to broaden the scope of their participation in business affairs. Based on an analysis of emerging literature on crowdfunding and a netnography of the virtual communities grouped together around a project, this study presents a model designed to integrate the causes and consequences of participation in crowdfunding campaigns, thereby providing for the holistic study of this participatory phenomenon. To our knowledge, such a study has never before been conducted. For the purpose of the research at hand, the authors define the term ‘participation’ to mean ‘the fact of engaging financially, creatively or socially in a business project’.’ The new construct and accompanying measurements make it possible to put into perspective determinants and consequences which include as follows: innovativeness, altruism, need to belong, perceived benefits, perceived risks, description of project, description of project initiator, brand relationship. These determinants and consequences enable the authors to explain, to a large extent, crowdfunding campaign participation behaviour. Their research also enriches crowdfunding literature with the first ever empirically validated model using structural equations. In point of fact, the conceptual model tested with 445 individuals having previously taken part in a crowdfunding campaign demonstrates satisfactory stability. Results show that the primary antecedents of participation in crowdfunding campaigns are innovativeness and the seeking out of benefits which outweigh perceived risks. In contrast, downstream of the model, the primary consequence of participation relates to the affective dimension of the brand relationship. Through the use of an integrated project management approach (IPMA), findings contribute in a number of different ways to enhancing managerial understanding of participation, including the social, creative and financial dimensions of the latter
APA, Harvard, Vancouver, ISO, and other styles
36

Ciptomulyono, Udisubakti. "Un modèle d'aide à la sélection des projets : l'intégration de la procédure analyse hiérarchique (AHP) et la programmation mathématique à objectif multiple (application aux projets de développement de centrales électriques en Indonésie)." Aix-Marseille 3, 2000. http://www.theses.fr/2000AIX30019.

Full text
Abstract:
La selection du projet presente un probleme de decision multicriteres et multiobjectives constituant les dimensions qualitatives et quantitatives. Afin de optimiser tels problemes nous proposons un modele d'aide a la decision integre. Les objectif du modele developpe tenant compte d'evaluation non seulement les criteres traditionnels des financiers mais aussi celles-ci lies aux politiques de type de projet electrique i. E. A la reservation des ressources matiere energetiques a long terme, a la reduction d'emission de gaz a effet de serre/pollution de l'air et aux impacts environnementaux, au developpement regional, a l'augmentation de creation d'emploi etc. Ces objectifs par lesquels sont evalues pas criteres integres de technico-socio-ecologique-finance-economique-strategiques incluent les facteurs tangibles et intangibles. L'approche se deroule en trois phases principales. A la phase d'analyse, a partir d'une source de l'information formelle/informelle donnee, on decompose le probleme des selection en un elements des decisions envisagees. A la phase evaluation multicritere, nous nous sommes servis de la de la procedure d'analyse hierarchique (ahp) pour obtenir les poids d'importance des elements des decisions qualitatives retenues d'apres des les experts competences. A la phase d'optimisation, un modele de la programmation mathematique a but multiple du goal programming 0 1 a ete construit pour que nous permet d'optimiser de processus decisionnel en respectant des contraintes etablies et en attendant des objectifs desires. D'une application du modele au cas reel de la selection des projets electrique du systeme de java bali, nous avons pu fourni une decision informationnelle importante qui a permis de conduire au decideur a prendre sa decision. Ainsi, depuis le budget disponible de plus en plus est limite et l'acceleration de demande en electricite tend a baisser pour l'avenir, le modele peut nous permettre tant d'examiner la planification des projets sous un systeme de priorite considerant la limitation des ressources et les autres contraintes que d'analyser le valeur de trade off entre les objectifs realisees.
APA, Harvard, Vancouver, ISO, and other styles
37

Berger, Quentin. "Polymères en milieu aléatoire : influence d'un désordre corrélé sur le phénomène de localisation." Phd thesis, Ecole normale supérieure de lyon - ENS LYON, 2012. http://tel.archives-ouvertes.fr/tel-00726494.

Full text
Abstract:
Cette thèse porte sur l'étude de modèles de polymère en milieu aléatoire: on se concentre sur le cas d'un polymère dirigé en dimension d+1 qui interagit avec un défaut unidimensionnel. Les interactions sont possiblement non-homogènes, et sont représentées par des variables aléatoires. Une question importante est celle de l'influence du désordre sur le phénomène de localisation: on veut déterminer si la présence d'inhomogénéités modifie les propriétés critiques du système, et notamment les caractéristiques de la transition de phase (auquel cas le désodre est dit pertinent). En particulier, nous prouvons que dans le cas où le défaut est une marche aléatoire, le désordre est pertinent en dimension d≥3. Ensuite, nous étudions le modèle d'accrochage sur une ligne de défauts possédant des inhomogénéités corrélées spatialement. Il existe un critère non rigoureux (dû à Weinrib et Halperin), que l'on applique à notre modèle, et qui prédit si le désordre est pertinent ou non en fonction de l'exposant critique du système homogène, noté νpur, et de l'exposant de décroissance des corrélations. Si le désordre est gaussien et les corrélations sommables, nous montrons la validité du critère de Weinrib-Halperin: nous le prouvons dans la version hiérarchique du modèle, et aussi, de manière partielle, dans le cadre (standard) non-hiérarchique. Nous avons de plus obtenu un résultat surprenant: lorsque les corrélations sont suffisamment fortes, et en particulier si elles sont non-sommables (dans le cadre gaussien), il apparaît un régime où le désordre devient toujours pertinent, l'ordre de la transition de phase étant toujours plus grand que νpur. La prédiction de Weinrib-Halperin ne s'applique alors pas à notre modèle.
APA, Harvard, Vancouver, ISO, and other styles
38

Wanderley, Matos de Abreu Thiago. "Modeling and performance analysis of IEEE 802.11-based chain networks." Thesis, Lyon 1, 2015. http://www.theses.fr/2015LYO10030/document.

Full text
Abstract:
Le protocole IEEE 802.11, basé sur les principes CMSA/CA, est largement déployé dans les communications sans fil actuelles, principalement en raison de sa simplicité et sa mise en œuvre à faible coût. Une utilisation intéressante de ce protocole peut être trouvée dans les réseaux sans fil multi-sauts, où les communications entre les nœuds peuvent impliquer l'emploi de nœuds relais. Une topologie simple de ces réseaux impliquant une source et une destination est communément connue en tant que chaîne. Dans cette thèse, un modèle hiérarchique, composé de deux niveaux, est présenté dans le but d'analyser la performance associée à ces chaînes. Le niveau supérieur modélise la topologie de la chaîne et le niveau inférieur modélise chacun de ses nœuds. On estime les performances de la chaîne, en termes de débit obtenu et de pertes de datagrammes, en fonction de différents modes de qualité du canal. En termes de précision, le modèle offre, en général, des résultats justes. Par ailleurs, le temps nécessaire à sa résolution reste très faible. Le modèle proposé est ensuite appliqué aux chaînes avec deux, trois et quatre nœuds, en présence de stations cachées potentielles, de tampons finis et d'une couche physique non idéale. Par ailleurs, l'utilisation du modèle proposé permet de mettre en évidence certaines propriétés inhérentes à ces réseaux. Par exemple, on peut montrer que la chaîne présente un maximum de performance (en ce qui concerne le débit atteint) en fonction du niveau de charge de du système, et que cette performance s'effondre par l'augmentation de cette charge. Cela représente un comportement non trivial des réseaux sans fil et il ne peut pas être facilement identifié. Cependant, le modèle capture cet effet non évident. Finalement, certains impacts sur les performances des chaînes occasionnés par les mécanismes IEEE 802.11 sont analysés et détaillés. La forte synchronisation entre les nœuds d'une chaîne et comment cette synchronisation représente un défi pour la modélisation de ces réseaux sont décrites. Le modèle proposé permet de surmonter cet obstacle et d'assurer une évaluation facile des performances de la chaîne
The IEEE 802.11 protocol, based on the CMSA/CA principles, is widely deployed in current communications, mostly due to its simplicity and low cost implementation. One common usage can be found in multi-hop wireless networks, where communications between nodes may involve relay nodes. A simple topology of these networks including one source and one destination is commonly known as a chain. In this thesis, a hierarchical modeling framework, composed of two levels, is presented in order to analyze the associated performance of such chains. The upper level models the chain topology and the lower level models each of its nodes. It estimates the performance of the chain in terms of the attained throughput and datagram losses, according to different patterns of channel degradation. In terms of precision, the model delivers, in general, accurate results. Furthermore, the time needed for solving it remains very small. The proposed model is then applied to chains with 2, 3 and 4 nodes, in the presence of occasional hidden nodes, finite buffers and non-perfect physical layer. Moreover, the use of the proposed model allows us to highlight some inherent properties to such networks. For instance, it is shown that a chain presents a performance maximum (with regards to the attained throughput) according to the system workload level, and this performance collapses with the increase of the workload. This represents a non-trivial behavior of wireless networks and cannot be easily identified. However, the model captures this non-trivial effect. Finally, some of the impacts in chains performance due to the IEEE 802.11 mechanisms are analyzed and detailed. The strong synchronization among nodes of a chain is depicted and how it represents a challenge for the modeling of such networks. The proposed model overcomes this obstacle and allows an easy evaluation of the chain performance
APA, Harvard, Vancouver, ISO, and other styles
39

Camara, Rey Oscar. "Recalage non linéaire d'images TDM et TEP dans les régions thoraciques et abdominales : étude méthodologique et application en routine clinique." Paris, ENST, 2003. http://www.theses.fr/2003ENST0043.

Full text
Abstract:
Le but de ces travaux est de proposer une contribution au recalage d'images TDM-TEP dans les régions thoraciques et abdominales. Notre méthodologie est fondée sur l'introduction de contraintes anatomiques au recalage non linéaire appliqué sur les intensités. Cette introduction est faite d'une manière explicite, en divisant la procédure en une phase d'initialisation recalant les structures segmentées dans les deux images, et une deuxième phase de recalage à niveaux de gris, raffinant l'étape précédente de l'algorithme. Les transformations sont modélisées dans les deux étapes à partir de Free Form Deformations (FFD). La segmentation est réalisée selon une procédure hiérarchique de reconnaissance de formes. La mesure fournie par le protocole d'évaluation que nous avons développé indique une erreur inférieure à 1cm pour les structures les plus significatives (poumons, foie, reins, coeur), sauf pour le stomach (erreur d'1. 5cm)
The aim of this work is to implement an algorithm to achieve a robust, fast enough and good quality registration of thoracic and abdominal CT and 18-FDG whole-body emission PET images. The proposed registration methodology is based on the incorporation of prior anatomical information in an intensity-based non-linear registration algorithm. This incorporation is performed in an explicit way, by initializing the intensity-based registration stage with the solution obtained by a registration of corresponding anatomical surfaces segmented through a hierarchically ordered set of anatomy-specific rules. Deformations are modeled in both registration steps by means of a FFD model. Mutual Information is used as the similarity criterion at the grey-level registration step. Registration errors provided by the visual assessment protocol we have designed are less than 1cm on lungs, heart, liver and kidneys structures but up to 1. 5cm on the stomach
APA, Harvard, Vancouver, ISO, and other styles
40

Kon, Kam King Guillaume. "Revisiting Species Sensitivity Distribution : modelling species variability for the protection of communities." Thesis, Lyon 1, 2015. http://www.theses.fr/2015LYO10194/document.

Full text
Abstract:
La SSD (Species Sensitivity Distribution) est une méthode utilisée par les scientifiques et les régulateurs de tous les pays pour fixer la concentration sans danger de divers contaminants sources de stress pour l'environnement. Bien que fort répandue, cette approche souffre de diverses faiblesses sur le plan méthodologique, notamment parce qu'elle repose sur une utilisation partielle des données expérimentales. Cette thèse revisite la SSD actuelle en tentant de pallier ce défaut. Dans une première partie, nous présentons une méthodologie pour la prise en compte des données censurées dans la SSD et un outil web permettant d'appliquer cette méthode simplement. Dans une deuxième partie, nous proposons de modéliser l'ensemble de l'information présente dans les données expérimentales pour décrire la réponse d'une communauté exposée à un contaminant. A cet effet, nous développons une approche hiérarchique dans un paradigme bayésien. A partir d'un jeu de données décrivant l'effet de pesticides sur la croissance de diatomées, nous montrons l'intérêt de la méthode dans le cadre de l'appréciation des risques, de par sa prise en compte de la variabilité et de l'incertitude. Dans une troisième partie, nous proposons d'étendre cette approche hiérarchique pour la prise en compte de la dimension temporelle de la réponse. L'objectif de ce développement est d'affranchir autant que possible l'appréciation des risques de sa dépendance à la date de la dernière observation afin d'arriver à une description fine de son évolution et permettre une extrapolation. Cette approche est mise en œuvre à partir d'un modèle toxico-dynamique pour décrire des données d'effet de la salinité sur la survie d'espèces d'eau douce
Species Sensitivity Distribution (SSD) is a method used by scientists and regulators from all over the world to determine the safe concentration for various contaminants stressing the environment. Although ubiquitous, this approach suffers from numerous methodological flaws, notably because it is based on incomplete use of experimental data. This thesis revisits classical SSD, attempting to overcome this shortcoming. First, we present a methodology to include censored data in SSD with a web-tool to apply it easily. Second, we propose to model all the information present in the experimental data to describe the response of a community exposed to a contaminant. To this aim, we develop a hierarchical model within a Bayesian framework. On a dataset describing the effect of pesticides on diatom growth, we illustrate how this method, accounting for variability as well as uncertainty, provides benefits to risk assessment. Third, we extend this hierarchical approach to include the temporal dimension of the community response. The objective of that development is to remove the dependence of risk assessment on the date of the last experimental observation in order to build a precise description of its time evolution and to extrapolate to longer times. This approach is build on a toxico-dynamic model and illustrated on a dataset describing the salinity tolerance of freshwater species
APA, Harvard, Vancouver, ISO, and other styles
41

Li, Shuxian. "Modélisation spatio-temporelle pour l'esca de la vigne à l'échelle de la parcelle." Thesis, Bordeaux, 2015. http://www.theses.fr/2015BORD0313/document.

Full text
Abstract:
L'esca de la vigne fait partie des maladies de dépérissement incurables dont l'étiologie n'est pas complément élucidée. Elle représente un des problèmes majeurs en viticulture. L'objectif général de cette thèse est d'améliorer la compréhension des processus épidémiques et des facteurs de risque. Pour ce faire, nous avons mené une étude quantitative du développement spatio-temporel de l'esca à l'échelle de la parcelle. Dans un premier temps, pour détecter d'éventuelles corrélations spatiales entre les cas de maladie, des tests statistiques non paramétriques sont appliqués aux données spatio-temporelles d'expression foliaires de l'esca pour 15 parcelles du bordelais. Une diversité de profils spatiaux, allant d'une distribution aléatoire à fortement structurée est trouvée. Dans le cas de structures très agrégées, les tests n'ont pas montré d'augmentation significative de la taille des foyers, ni de propagation secondaire locale à partir de ceps symptomatiques, suggérant un effet de l'environnement dans l'explication de cette agrégation. Dans le but de modéliser l'occurrence des symptômes foliaires, nous avons développé des modèles logistiques hiérarchiques intégrant à la fois des covariables exogènes liées à l'environnement et des covariables de voisinage de ceps déjà malades mais aussi un processus latent pour l'auto-corrélation spatio-temporelle. Les inférences bayésiennes sont réalisées en utilisant la méthode INLA (Inverse Nested Laplace Approximation). Les résultats permettent de conforter l'hypothèse du rôle significatif des facteurs environnementaux dans l'augmentation du risque d'occurrence des symptômes. L'effet de propagation de l'esca à petite échelle à partir de ceps déjà atteints situés sur le rang ou hors rang n'est pas montré. Un modèle autologistique de régression, deux fois centré, qui prend en compte de façon plus explicite la structure spatio-temporelle de voisinage, est également développé. Enfin, une méthode géostatistique d'interpolation de données de nature anisotropique atypique est proposée. Elle permet d'interpoler la variable auxiliaire de résistivité électrique du sol pour estimer à l'échelle de chaque plante de la parcelle, la réserve en eau du sol disponible pour la vigne. Les méthodes géostatistique et spatio-temporelles développées dans cette thèse ouvrent des perspectives pour identifier les facteurs de risques et prédire le développement de l'esca de la vigne dans des contextes agronomiques variés
Esca grapevine disease is one of the incurable dieback disease with the etiology not completely elucidated. It represents one of the major threats for viticulture around the world. To better understand the underlying process of esca spread and the risk factors of this disease, we carried out quantitative analyses of the spatio-temporal development of esca at vineyard scale. In order to detect the spatial correlation among the diseased vines, the non-parametric statistical tests were applied to the spatio-temporal data of esca foliar symptom expression for 15 vineyards in Bordeaux region. Among vineyards, a large range of spatial patterns, from random to strongly structured, were found. In the vineyards with strongly aggregated patterns, no significant increase in the size of cluster and local spread from symptomatic vines was shown, suggesting an effect of the environment in the explanation of this aggregation. To model the foliar symptom occurrence, we developed hierarchical logistic regression models by integrating exogenous covariates, covariates of neighboring symptomatic vines already diseased, and also a latent process with spatio-temporal auto-correlation. The Bayesian inferences of these models were performed by INLA (Inverse Nested Laplace Approximation) approach. The results confirmed the effect of environmental factors on the occurrence risk of esca symptom. The secondary locally spread of esca from symptomatic vines located on the same row or out of row was not shown. A two-step centered auto-logistic regression model, which explicitly integrated the spatio-temporal neighboring structure, was also developed. At last, a geostatistical method was proposed to interpolate data with a particular anisotropic structure. It allowed interpolating the ancillary variable, electrical resistivity of soil, which were used to estimate the available soil water content at vine-scale. These geostatistical methods and spatio-temporal statistical methods developed in this thesis offered outlook to identify risk factors, and thereafter to predict the development of esca grapevine disease in different agronomical contexts
APA, Harvard, Vancouver, ISO, and other styles
42

Sodjo, Jessica. "Modèle bayésien non paramétrique pour la segmentation jointe d'un ensemble d'images avec des classes partagées." Thesis, Bordeaux, 2018. http://www.theses.fr/2018BORD0152/document.

Full text
Abstract:
Ce travail porte sur la segmentation jointe d’un ensemble d’images dans un cadre bayésien.Le modèle proposé combine le processus de Dirichlet hiérarchique (HDP) et le champ de Potts.Ainsi, pour un groupe d’images, chacune est divisée en régions homogènes et les régions similaires entre images sont regroupées en classes. D’une part, grâce au HDP, il n’est pas nécessaire de définir a priori le nombre de régions par image et le nombre de classes, communes ou non.D’autre part, le champ de Potts assure une homogénéité spatiale. Les lois a priori et a posteriori en découlant sont complexes rendant impossible le calcul analytique d’estimateurs. Un algorithme de Gibbs est alors proposé pour générer des échantillons de la loi a posteriori. De plus,un algorithme de Swendsen-Wang généralisé est développé pour une meilleure exploration dela loi a posteriori. Enfin, un algorithme de Monte Carlo séquentiel a été défini pour l’estimation des hyperparamètres du modèle.Ces méthodes ont été évaluées sur des images-test et sur des images naturelles. Le choix de la meilleure partition se fait par minimisation d’un critère indépendant de la numérotation. Les performances de l’algorithme sont évaluées via des métriques connues en statistiques mais peu utilisées en segmentation d’image
This work concerns the joint segmentation of a set images in a Bayesian framework. The proposed model combines the hierarchical Dirichlet process (HDP) and the Potts random field. Hence, for a set of images, each is divided into homogeneous regions and similar regions between images are grouped into classes. On the one hand, thanks to the HDP, it is not necessary to define a priori the number of regions per image and the number of classes, common or not.On the other hand, the Potts field ensures a spatial consistency. The arising a priori and a posteriori distributions are complex and makes it impossible to compute analytically estimators. A Gibbs algorithm is then proposed to generate samples of the distribution a posteriori. Moreover,a generalized Swendsen-Wang algorithm is developed for a better exploration of the a posteriori distribution. Finally, a sequential Monte Carlo sampler is defined for the estimation of the hyperparameters of the model.These methods have been evaluated on toy examples and natural images. The choice of the best partition is done by minimization of a numbering free criterion. The performance are assessed by metrics well-known in statistics but unused in image segmentation
APA, Harvard, Vancouver, ISO, and other styles
43

Eckert, Nicolas. "Couplage données historiques - modélisation numérique pour la prédétermination des avalanches : une approche bayésienne." Phd thesis, AgroParisTech, 2007. http://pastel.archives-ouvertes.fr/pastel-00003404.

Full text
Abstract:
Cette thèse s'intéresse au problème de la prédétermination des avalanches par couplage entre modélisation numérique et données historiques. L'assemblage s'effectue grâce au formalisme bayésien hiérarchique. La modélisation stochastique, l'inférence du modèle et la prédiction des aléas de référence sont clairement distinguées. L'échelle d'étude est tout d'abord celle d'un site avalancheux. Trois jeux d'hypothèses correspondant à différents compromis entre disponibilité des données et description de la propagation de l'avalanche sont proposés. L'incertitude liée à la méconnaissance du phénomène est combinée avec sa variabilité intrinsèque pour obtenir la loi de probabilité prédictive de la période de retour associée à n'importe quelle distance d'arrêt. Les distributions des autres variables caractérisant l'aléa sont également étudiées. Une analyse de sensibilité aux différentes hypothèses de modélisation est proposée. La prédétermination des fréquences avalancheuses sur des sites peu documentés et en contexte non stationnaire est ensuite traitée à l'échelle communale avec un modèle spatio-temporel. Celui-ci permet de quantifier les variations des occurrences avalancheuses dans les Alpes françaises au cours des soixante dernières années. Enfin, le problème du dimensionnement d'un ouvrage de protection est abordé. Le modèle stochastique est complété par les effets sur l'écoulement avalancheux d'une digue verticale et par une fonction de coût permettant l'optimisation de la hauteur de l'ouvrage. Le risque bayésien permet de ne pas séparer inférence et décision en prenant en compte l'erreur d'estimation pour le dimensionnement.
APA, Harvard, Vancouver, ISO, and other styles
44

Bavay, Cécile. "Adaptation des méthodologies d'évaluation sensorielle aux produits agroalimentaires à forte variabilité." Phd thesis, Université d'Angers, 2013. http://tel.archives-ouvertes.fr/tel-00846841.

Full text
Abstract:
Les caractéristiques sensorielles peuvent être mesurées par des méthodes descriptives d'évaluation sensorielle, parmi lesquelles le profil conventionnel. Les résultats sensoriels de profil présentent une forte variabilité, due, d'une part aux différences entre les sujets du panel, et d'autre part à la variabilité intra-lot, et notamment aux différences existant entre les individus d'un échantillon. À ce jour, la variabilité des sujets est prise en compte et les méthodologies de collecte et d'analyse des données ont été adaptées dans ce but. Néanmoins, la variabilité intra-lot n'a pas été abordée, malgré le challenge qu'elle représente. Avec pour produit modèle la pomme, ce travail de thèse aborde la problématique de la variabilité intra-lot sous deux angles : la mesure de la variabilité et la réduction de la variabilité, dans le but d'obtenir une mesure sensorielle plus fiable. Premièrement, la capacité de discrimination du panel a été observée entre les variétés étudiées et entre les fruits de chaque variété, identifiés comme différents selon une mesure instrumentale. Deuxièmement, afin de prendre en compte la variabilité intra-lot, le modèle d'analyse de la variance classiquement utilisé en évaluation sensorielle a été adapté avec l'ajout d'un facteur fruit hiérarchisé au facteur variété. Cette adaptation implique le partage de chaque fruit par plusieurs sujets. L'application de ce modèle a démontré l'importance de la variabilité intra-lot et l'importance du choix du modèle pour obtenir des résultats plus pertinents. De plus, le modèle d'analyse de la variance déterminé a été adapté afin de distinguer désaccord pur entre les sujets et différences de dispersion. Enfin, une réduction de la variabilité effective est obtenue par le partage des fruits ou par une homogénéisation instrumentale, cette dernière étant dépendante de la variété et de la mesure choisie. Les résultats de ce travail apportent des clés méthodologiques pour l'obtention de résultats fiables dans la cadre de l'évaluation sensorielle de produits variables.
APA, Harvard, Vancouver, ISO, and other styles
45

Levernier, René-Bertrand. "Problèmes posés par l'estimation des sinusoï͏̈des amorties au travers de l'estimation en temps court des potentiels évoqués et de leur mesure." Paris 11, 1989. http://www.theses.fr/1989PA112395.

Full text
Abstract:
Cette thèse s'attache à traiter en temps court les potentiels évoqués, c'est-à-dire à extraire l'information utile au médecin d'au plus une cinquantaine d'enregistrements. Pour ce faire, elle explore deux axes de recherche distincts mais complémentaires. Le premier axe concerne l'interface électrode/tissu. Nous n'observons pas la limitation par la diffusion indiquée par d'autres auteurs, mais plutôt une distribution spatiale des paramètres ce qui corrobore notre hypothèse de l'existence d'une couche d'oxyde. Nous montrons également, d'une part, que le bruit généré par l'interface est de type thermique et, d'autre part, que sa minimisation aurait un effet négligeable sur la qualité des enregistrements. Le second axe concerne le traitement amont, c'est-à-dire l'extraction de l'information des mesures disponibles, et il se décompose en fait en trois parties. En réduisant à quelques dizaines le nombre d'enregistrements servant à constituer la moyenne qu'il faut traiter, ceux de qualité médiocre ne peuvent plus être négligés. Pour les détecter, nous proposons la Classification Hiérarchique et, après en avoir discuté le principe, nous l'employons avec succès sur des mesures réelles. La moyenne des bons enregistrements présente un rapport signal sur bruit pouvant ne pas excéder les 10dB. En nous inspirant de travaux en Physique Nucléaire, nous exposons et testons sur des simulations la méthode du Simplex. Afin d'améliorer les résultats, nous proposons d'y intégrer des contraintes rendant compte de la connaissance dont on dispose sur le signal. L'amélioration n'étant pas suffisante, nous reportons notre attention sur les méthodes de l'Analyse Spectrale, à savoir celle de Burg, celle de Marple, celle des faisceaux de fonctions, celle de Tufts-Kumaresan, celle de Pisarenko, celle de Reddi, celle itérative du maximum de vraisemblance et celle itérative du filtrage inverse. Nous les présentons de façon unifiée afin de faire apparaître clairement les liens existant entre chacune et nous dressons un bilan critique relativement exhaustif des résultats actuellement répertoriés dans la littérature. Comme avec 10dB nous sommes, pour les meilleures méthodes, à la limite du seuil d'efficience, il a été nécessaire de proposer des extensions. Les plus importantes sont basées sur l'intervention simultanée des erreurs progressives et rétrogrades ou encore sur la prise en compte des amortissements (déterminées itérativement). Par la mise en oeuvre successive de la méthode de Reddi ou de celle du maximum de vraisemblance, avec le dernier type d'extension, et d'un Quasi-Newton (moins de 10 itérations), nous montrons que nous sommes capables d'extraire l'information de mesures réelles. Nous proposons différentes extensions afin de réduire le volume des calculs. Pour la première méthode, un algorithme rapide de diagonalisation des matrices centro-hermitiques et un autre pour déterminer les projecteurs sont exposés. Pour la seconde, nous donnons une écriture condensée du critère ainsi que des techniques pour calculer rapidement ce dernier. Puisque la méthode de Reddi est plus séduisante au niveau du temps de calcul mais qu'elle nécessite de connaître le nombre de sinusoi͏̈des constituant le signal, nous passons en revue les principaux critères de sélection de l'ordre actuellement disponibles. Nous montrons qu'hormis celui de Konstantinides, tous ceux développés pour être utilisés conjointement à ce type de méthode (faisant intervenir une diagonalisation) peuvent être appliqués dans certains cas en Traitement Spatial mais pas en Analyse Spectrale car l'hypothèse d'indépendance des vecteurs servant à constituer la matrice de covariance n'y est en général pas satisfaite. Ces deux dernières parties, à savoir l'extension des méthodes d'Analyse Spectrale et la réécriture des critères de sélections, dépassent de beaucoup le cadre de la présente thèse. En effet, les résultats qui y apparaissent permettent certes de traiter en temps court les potentiels évoqués, mais ouvrent également des perspectives très prometteuses pour de nombreuses autres applications avec, en particulier, le Traitement Spatial qui constitue à l'heure actuelle un domaine de recherche très actif.
APA, Harvard, Vancouver, ISO, and other styles
46

Chalmeau, Olivier. "Impact de la régulation sur le financement des opérateurs de télécommunications européens : une analyse du risque systématique." Thesis, Paris 9, 2015. http://www.theses.fr/2015PA090065.

Full text
Abstract:
La thèse analyse les effets de la régulation sur le risque systématique d’un panel de 17 grands opérateurs de télécommunications européens entre 1997 et 2012. La relation régulation/risque est étudiée sous trois angles : (i) via la modification de la distribution des revenus de la firme, (ii) la promotion de l’intensité concurrentielle, et (iii) les choix de structure financière des opérateurs. Une modélisation de l’impact de la régulation sur la structure financière de la firme met en évidence que la hausse stratégique de l’endettement peut accroitre ou décroitre le risque systématique. Trois méthodologies d’estimations du risque sont utilisées : les MCO et le filtre de Kalman sans et avec effet TGARCH. Les trois aspects de la relation risque/régulation sont ensuite abordés via une étude en données de panel (couvrant les ratios financiers, l’intensité concurrentielle, l’intensité et le régime de régulation) puis en évaluant la réaction du risque aux annonces d’évolutions du cadre réglementaire européen (étude d’évènements)
The thesis analyzes the effects of regulation on the systematic risk of a panel of 17 leading European telecommunications operators between 1997 and 2012. The regulation / risk relationship is studied through: (i) the changes in the firm income distribution, (ii) the promotion of competitive intensity, and (iii) the operators' choice of financial structure. Modeling the impact of regulation on the financial structure of the firm highlights that strategic increase in debt may increase or decrease the systematic risk. Three estimation methodologies of risk are used: OLS and Kalman filter technics with and without TGARCH effect. The three aspects of risk / regulation relationship are then addressed through a panel data study (covering financial ratios, competitive intensity, and regulatory regime index) and then by an events study evaluating market reactions to announcements of changes in the European regulatory framework
APA, Harvard, Vancouver, ISO, and other styles
47

Balma, Lacina. "Essais sur les Investissements Publiques, Mécanismes de Financement et Croissance dans les Pays en Développement : Interactions et Rôle des Facteurs Structurels." Thesis, Bordeaux, 2015. http://www.theses.fr/2015BORD0113/document.

Full text
Abstract:
Cette thèse vise à étudier les liens entre les investissements publics, le mode definancement et la croissance économique, tout en mettant en exergue le rôle des conditionsstructurelles. Premièrement, dans un scenario d’amélioration des conditions structurelles(mesurées par l’efficience et la capacité d'absorption de l’économie) comparé à un scenario debase, nous montrons que le potentiel de croissance est supérieur comparé au scenario de base. Parconséquent, la stabilisation de la dette ne nécessite pas des ajustements budgétaires douloureux.Deuxièmement, à travers un scénario d'investissement agressif sur la base d’emprunts nonconcessionnelsen anticipation des revenus futurs du pétrole, nous constatons l’occurrence decontraintes liées à la capacité d'absorption et partant l’effet adverse du syndrome hollandais sur lacroissance du PIB hors pétrole. En outre, des réformes structurelles qui résorberaient lescontraintes liées à l’inefficience et à la capacité d'absorption se traduiraient par une augmentationimportante et durable du capital public. Cela entrainerait une croissance supplémentaire du PIBhors pétrole. Troisièmement, nous montrons que les délais d’exécution peuvent contrer l’effetclassique selon lequel une augmentation de l’investissement public entraine un effet richessenégatif dans le long terme. Aussi, une productivité élevée de l’investissement public peutsubstantiellement créer un effet richesse positif dans le long terme, stimuler la production etpermettre à la consommation et à l’investissement privé de baisser moins. Finalement, noussimulons l’impact des dépenses publiques d’éducation sur la pauvreté au Burkina Faso en utilisant2 mécanismes d’ajustement fiscal : la taxe directe et la taxe indirecte. Les simulations montrentqu’une augmentation uniforme de 40 pourcent des dépenses publiques dans l’éducation primairefiancée par les deux mécanismes de financement améliore non seulement le bien-être maiségalement entraine une baisse de la pauvreté chez tous les types de ménage. Toutefois, lefinancement par la taxe indirecte conduit à un résultat inférieur comparé au financement par lataxe directe
This dissertation seeks to study the public investment-financing-growth linkages whileeliciting the role of structural economic conditions. First, through an alternative scenario ofimproved structural economic conditions (efficiency and absorptive capacity) and comparing witha baseline scenario, we find that the growth potential is higher than the baseline. Consequently,stabilizing debt does not require painful fiscal consolidation. Second, through an aggressiveinvestment scaling-up scenario that builds on commercial borrowing in anticipation of future oilrevenue, we find that the economy is subject to absorptive capacity constraints and ultimately toDutch disease effects that affect negatively the non-oil GDP growth in the short run. Moreover,we find that structural reforms that address absorptive capacity constraints and inefficienciestranslate into sizable and sustainable increase in public capital. This in turn has a positive spillovereffect in terms of additional growth in the non-resource GDP. Third, we find that implementationdelays can offset the standard negative wealth effect from an increase in government investmentspending in the long run. Also, high-yielding public investment can substantially create positivewealth effect in the long run, raise output and enable private consumption and investment to fallless. Finally, we simulate a 40-percent across-the-board increase in public spending for primaryeducation, financed by an increase in taxes on household income and indirect taxes. We find thatthe two financing mechanisms, not only leads to an increase in the welfare but also to a decline inthe incidence of poverty for all household types. However, the indirect tax-based financing leadsto smaller outcomes compared to the income tax-based financing
APA, Harvard, Vancouver, ISO, and other styles
48

Bled, Florent. "Tests d'hypothèses en dynamique des populations fragmentées : développement et applications de modèles d'occupation des sites." Toulouse 3, 2010. http://thesesups.ups-tlse.fr/1087/.

Full text
Abstract:
Les approches classiques de modèles spatiaux pour les processus binaires de distribution d'espèces (i. E. Occupation des sites) présentent trois importantes carences. I) Elles ne prennent pas explicitement en compte l'incertitude dans le processus d'échantillonnage. Ii) Il y a un manque de modèles spatio-temporels, notamment hiérarchique. Iii) La plupart des modèles existants sont de type phénoménologique et ne considèrent pas explicitement les mécanismes écologiques sous-jacents. Cette thèse répond à ces limitations en présentant des modèles spatio-temporels d'occupation des sites pour des processus écologiques dynamiques. Ces modèles sont appliqués à des sujets essentiels en écologie, tels que la sélection de l'habitat, les espèces invasives et les changements climatiques. Comprendre la dynamique d'occupation des sites permet de prédire les changements d'occupation qui accompagneront des modifications de l'habitat et de prendre des décisions adaptées en gestion des populations
Classical approaches to the development of spatial models for binary processes of species distribution (i. E. Occupancy processes) present three important deficiencies. I) They do not explicitly accommodate sampling uncertainty. Ii) There is a lack of spatio-temporal occupancy models, especially in the framework of hierarchical modeling. Iii) Most of existing models are phenomenological and do not explicitly consider underlying ecological mechanisms. This thesis develops spatio-temporal occupancy models for dynamical ecological processes in order to respond to these limitations while incorporating scientific knowledge in every modeling step. Those models are applied to critical ecological topics ranging from the spread of invasive species to habitat selection via climate changes. Understanding range and occupancy dynamics will permit prediction of occupancy changes that are likely to accompany future changes and hopefully will permit informed attempts to mediate changes in occupancy
APA, Harvard, Vancouver, ISO, and other styles
49

Launay, Tristan. "Méthodes Bayésiennes pour la prévision de consommation d’électricité." Nantes, 2012. http://www.theses.fr/2012NANT2074.

Full text
Abstract:
Dans ce manuscrit, nous développons des outils de statistique bayésienne pour la prévision de consommation d’électricité en France. Nous prouvons tout d’abord la normalité asymptotique de la loi a posteriori (théorème de Bernstein-von Mises) pour le modèle linéaire par morceaux de part chauffage et la consistance de l’estimateur de Bayes. Nous décrivons ensuite la construction d’une loi a priori informative afin d’améliorer la qualité des prévisions d’un modèle de grande dimension en situation d’historique court. A partir de deux exemples impliquant les clients non télérelevés de EDF, nous montrons notamment que la méthode proposée permet de rendre l’évaluation du modèle plus robuste vis-à-vis du manque de données. Nous proposons enfin un nouveau modèle dynamique, non-linéaire, pour prévoir la consommation d’électricité en ligne. Nous construisons un algorithme de filtrage particulaire afin d’estimer ce modèle et comparons les prévisions obtenues aux prévisions opérationnelles utilisées au sein d’EDF
In this manuscript, we develop Bayesian statistics tools to forecast the French electricity load. We first prove the asymptotic normality of the posterior distribution (Bernstein-von Mises theorem) for the piecewise linear regression model used to describe the heating effect and the consistency of the Bayes estimator. We then build a a hierarchical informative prior to help improve the quality of the predictions for a high dimension model with a short dataset. We typically show, with two examples involving the non metered EDF customers, that the method we propose allows a more robust estimation of the model with regard to the lack of data. Finally, we study a new nonlinear dynamic model to predict the electricity load online. We develop a particle filter algorithm to estimate the model et compare the predictions obtained with operationnal predictions from EDF
APA, Harvard, Vancouver, ISO, and other styles
50

Lebreton, Olivier. "Adaptation du modèle de la Construction-Intégration de Kintsch à la compréhension des énoncés et à la résolution des problèmes arithmétiques complexes." Phd thesis, Université de la Réunion, 2011. http://tel.archives-ouvertes.fr/tel-00716841.

Full text
Abstract:
Cette recherche a pour objet la compréhension des énoncés de problèmes arithmétiques complexes et leur résolution. Les problèmes complexes choisis combinent des problèmes simples de types Changement et Combinaison. Ce travail s'appuie sur le modèle de la Construction-Intégration de Kintsch. Les résultats montrent qu'il existe une relation entre le niveau d'expertise en compréhension de textes narratifs et la résolution des problèmes arithmétiques complexes. Comprendre un texte narratif ou un énoncé de problème complexe exige de la part des lecteurs la construction d'un réseau propositionnel hiérarchisé et les résultats suggèrent, entre autres, une sensibilité des élèves aux propositions textuelles et aux ellipses contenues dans les textes. La formation des macropropositions est un processus fondamental et les résultats montrent une relation entre le nombre d'objets contenus dans les énoncés de problème et la procédure préférentiellement choisie par les élèves. Ils suggèrent d'une part, la mise en oeuvre du processus de catégorisation au cours du processus de compréhension et d'autre part, l'affaiblissement des liaisons entre les macropropositions élaborées et le schéma de problème Parties-Tout qui leur sont liés. D'un point de vue pédagogique, les résultats montrent que les questions relatives à l'activation d'une part des concepts superordonnés et d'autre part des schémas de problèmes Parties-Tout ne sont pas à privilégier pour aider les élèves. Finalement, les connaissances du lecteur sont essentielles à la compréhension. Cet élément est confirmé ici et la compréhension des problèmes complexes nécessite des connaissances solides relativement aux problèmes arithmétiques simples.
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography