Auswahl der wissenschaftlichen Literatur zum Thema „Économie industrielle – Méthodes statistiques“

Geben Sie eine Quelle nach APA, MLA, Chicago, Harvard und anderen Zitierweisen an

Wählen Sie eine Art der Quelle aus:

Machen Sie sich mit den Listen der aktuellen Artikel, Bücher, Dissertationen, Berichten und anderer wissenschaftlichen Quellen zum Thema "Économie industrielle – Méthodes statistiques" bekannt.

Neben jedem Werk im Literaturverzeichnis ist die Option "Zur Bibliographie hinzufügen" verfügbar. Nutzen Sie sie, wird Ihre bibliographische Angabe des gewählten Werkes nach der nötigen Zitierweise (APA, MLA, Harvard, Chicago, Vancouver usw.) automatisch gestaltet.

Sie können auch den vollen Text der wissenschaftlichen Publikation im PDF-Format herunterladen und eine Online-Annotation der Arbeit lesen, wenn die relevanten Parameter in den Metadaten verfügbar sind.

Zeitschriftenartikel zum Thema "Économie industrielle – Méthodes statistiques"

1

Hamza, Mohamed Hafedh, Ayed Added, Alain Francès, Ramiro Rodriguez, Mohamed Ajmi und Saâdi Abdeljaoued. „Évaluation de la vulnérabilité à la pollution potentielle de la nappe côtière alluvionnaire de Meltine-Ras Jebel-Raf Raf (Nord-Est tunisien) selon les méthodes paramétriques DRASTIC, SINTACS et SI“. Revue des sciences de l'eau 21, Nr. 1 (29.04.2008): 75–86. http://dx.doi.org/10.7202/017932ar.

Der volle Inhalt der Quelle
Annotation:
Résumé La nappe alluvionnaire de Metline-Ras Jebel-Raf Raf (gouvernorat de Bizerte, côte Nord Est de la Tunisie), qui occupe une superficie de 35 km2, représente une ressource économique jugée prioritaire du fait qu’elle est utilisée dans les domaines d’irrigation et de consommation domestique. L’aire de la nappe est occupée essentiellement par des zones agricoles caractérisées par une utilisation de plus en plus importante des engrais chimiques qui représentent, en plus des rejets des zones industrielles, un risque permanent pour la qualité des eaux souterraines. L’étude de la vulnérabilité à la pollution par les polluants inorganiques de cette nappe a été effectuée en appliquant les méthodes DRASTIC standard (Aller et al., 1987; Engel et al., 1996), SINTACS (Civita, 1994) et SI (Ribeiro, 2000), avec l’aide des logiciels des systèmes d’information géographique, ARC/Info et Idrisi. Une comparaison statistique des cartes de vulnérabilité obtenues a été effectuée. Cette comparaison a montré une certaine ressemblance entre les résultats obtenus en utilisant les méthodes SINTACS et SI. En revanche, la carte DRASTIC standard s’avère différente par rapport aux autres.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
2

Azan, Louis, und Étienne de l’Estoile. „La place de la terre dans la pensée économique : l’économie est-elle devenue hors-sol ?“ Regards croisés sur l'économie 33, Nr. 2 (05.12.2023): 17–25. http://dx.doi.org/10.3917/rce.033.0017.

Der volle Inhalt der Quelle
Annotation:
La terre occupait une place centrale dans les travaux des premiers économistes du xviii e et xix e siècles. Le passage à une société industrielle et le développement des méthodes néoclassiques ont conduit à sa progressive marginalisation dans la pensée économique. Cette disparition est symptomatique d’un certain « oubli » des ressources naturelles en économie.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
3

Lardic, Sandrine, und Valérie Mignon. „Essai de mesure du «degré» de mémoire longue des séries. L’exemple de la modélisation ARFIMA“. Économie appliquée 50, Nr. 2 (1997): 161–95. http://dx.doi.org/10.3406/ecoap.1997.1635.

Der volle Inhalt der Quelle
Annotation:
L’objet de cet article est d’étudier les modalités de détection et de mesure de la mémoire longue en économie. D’un point de vue économique, on retrouve dans nombre d’analyses théoriques comme empiriques des inerties, des délais d’ajustement, des rigidités témoignant de l’intérêt de la quantification de la structure de dépendance des séries. Les modèles fractionnairement intégrés sont des inventions statistiques visant à être de bonnes approximations de cette persistance. A cet égard, nous proposons d’appliquer les méthodes d’estimation les plus puissantes (méthode de Geweke et Porter-Hudak et du maximum de vraisemblance exact) des processus ARFIMA sur diverses séries macro-économiques et financières.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
4

Tanguy, Lucie. „Reconversion industrielle ou conversion culturelle dans un bassin minier de Lorraine au milieu des années 1960“. Sociétés contemporaines 35, Nr. 3 (01.09.1999): 43–70. http://dx.doi.org/10.3917/soco.p1999.35n1.0043.

Der volle Inhalt der Quelle
Annotation:
Résumé RÉSUMÉ: Cet article* présente le contexte ainsi que les formes d’accomplissement des premières actions de reconversion industrielle menées en Lorraine à l’occasion de la fermeture des mines de fer, et la place qu’y a prise la formation. L’auteur développe une analyse qui s’écarte fortement de celle donnée par la mémoire commune: la formation n’a pas été, comme on la présente généralement, un bien universel désiré par tous, et en premier lieu par les mineurs privés d’emploi, mais un ensemble d’actions que certaines catégories ont promu à des fins de changement (allant d’une société plus égalitaire à une économie plus performante) et dont la mise en place a été longuement négociée au terme d’ajustements et de conversions de points de vue qu’il reconstitue dans ce texte. Cette expérience a servi de creuset à l’élaboration d’une doctrine d’éducation permanente, ainsi qu’à l’expérimentation de méthodes et de techniques pédagogiques. Celles-ci ont irrigué un ensemble de milieux universitaires, associatifs et politiques, et ont inspiré certains promoteurs de la loi de 1971.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
5

Heron, Craig. „Hamilton Steelworkers and the Rise of Mass Production“. Historical Papers 17, Nr. 1 (26.04.2006): 103–31. http://dx.doi.org/10.7202/030886ar.

Der volle Inhalt der Quelle
Annotation:
Résumé C'est en deux phases bien distinctes que le capitalisme industriel fut instauré au Canada, à l'instar d'ailleurs de ce qu'il appert pour les autres pays occidentaux. La « première révolution industrielle » — comme on s'est plu à l'appeler — s'est manifestée au pays vers les années 1850 et I860 et elle s'est épanouie « en serre chaude » dans les années 1880 à cause de la Politique Nationale qui avait cours à l'époque. La « seconde révolution industrielle » s'amorça au début du XXe siècle et résultait d'une économie capitaliste beaucoup plus sophistiquée où se côtoyaient une technologie et des moyens de production nouveaux et complexes de même que des géants corporatifs dans les domaines de l'acier, de l'automobile, du papier et des produits chimiques, pour n'en mentionner que quelques-uns. Bien que cette deuxième phase du capitalisme industriel ait considérablement affecté les conditions de travail de milliers d'hommes et de femmes au Canada, l'historiographie récente, pourtant abondante dans le domaine de l'histoire des travailleurs, a pratiquement ignoré le phénomène de la fabrication en grande série qui caractérisa cette deuxième phase. C'est une partie de cette histoire que l'auteur retrace ici par le biais d'une étude sur l'industrie sidérurgique à Hamilton, Ontario, un des trois grands centres de cette industrie au Canada. Il y examine l'essor de la Sleel Company of Canada et de ses prédécesseurs entre 1895 et 1930, les transformations que subirent les méthodes de travail dans le domaine de la sidérurgie à l'époque et les relations de travail qui se développèrent au sein de cette corporation dans ses usines de Hamilton.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
6

Dugas, Clermont. „Étude des facteurs de modification de la répartition du peuplement dans l’Est du Québec (1966-1971)“. Cahiers de géographie du Québec 19, Nr. 46 (12.04.2005): 167–88. http://dx.doi.org/10.7202/021252ar.

Der volle Inhalt der Quelle
Annotation:
La région de l'Est du Québec, située au sud du fleuve Saint-Laurent et s'étendant du comté de Kamouraska à l'ouest à celui des Îles-de-la-Madeleine à l'est, couvre une superficie de l'ordre de 44 000 kilomètres carrés dont au moins 85% est occupée par la forêt. Ce vaste territoire renfermait, en 1971, une population de 325 000 personnes réparties en 214 localités. Le peuplement, qui s'étire le long de 9 000 kilomètres de routes, demeure très dispersé et mal hiérarchisé. Depuis 1961, une véritable désorganisation de l'espace s'est amorcée. Seulement 49 localités ont pu bénéficier d'une stabilité ou de légers gains démographiques. Compte tenu du caractère rural de la région, il est logique de se demander si l'abandon des terres et de l'agriculture est responsable du fort courant migratoire vers l'extérieur et, par conséquent, de la décroissance démographique de la plupart des localités. D'autre part, on peut aussi rechercher à quels facteurs on peut attribuer la croissance démographique de certaines localités. Par l'utilisation de méthodes statistiques telles que l'analyse factorielle et la régression multiple, on arrive à cerner un peu mieux le rôle joué par l'agriculture, la mauvaise structuration de l'espace, la production industrielle et les équipements commerciaux sur les modifications de la structure du peuplement.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
7

MORISHO, Georges, und GEDEON MUSHABAH. „GESTION DU RISQUE DE CHANGE DANS UNE INSTITUTION FINANCIERE, CAS DE LA RAWBANK DE 2011 A 2020“. IJRDO - Journal of Business Management 8, Nr. 2 (26.02.2022): 10–20. http://dx.doi.org/10.53555/bm.v8i2.4837.

Der volle Inhalt der Quelle
Annotation:
Dans le contexte d'une économie internationale caractérisée par le flottement des devises et des fluctuations de grandes ampleurs des cours des monnaies, la gestion du risque de change est une nécessité. La démarche méthodologique adoptée par la présente étude a consisté en une démarche empirique visant à dégager les risques de change à l’Actif tout comme au Passif, notre recherche s’est appuyée sur la méthode extra comptable et l’approche analytique. Ces deux méthodes ont été appuyées par la technique documentaire combinée aux outils statistiques pour le traitement des données. Au terme de cette recherche, nous avons constaté que ; la situation des dettes qu’a la RAWBANK dans le circuit bancaire, est la somme des comptes à vue banques locales c’est-à-dire les dettes contractées dans le circuit interbancaire, des opérations avec la clientèle et les autres ressources permanentes. Ces dettes ont constitué une part importante dans la détermination du risque de change au Passif. Chaque fois qu’une banque contracte une dette, toute fluctuation du taux de change impacte positivement ou négativement sur son passif. Dans la détermination de la position de change, la RAWBANK est dans une position de change déficitaire car le risque de change à l’Actif bien que positif, ne couvre pas le risque de change au Passif ce qui nécessite une constitution d’une part importante des provisions et revoir sa politique de crédit afin de faire face aux fluctuations du taux de change.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
8

DONNARS, C., P. CELLIER und J. L. PEYRAUD. „Nouvelles de la recherche : expertise sur les flux d’azote liés aux élevages“. INRAE Productions Animales 25, Nr. 4 (02.10.2012): 389–92. http://dx.doi.org/10.20870/productions-animales.2012.25.4.3226.

Der volle Inhalt der Quelle
Annotation:
Une expertise scientifique collective conduite par l’Inra (INRA 2012) pointe l’importance des flux d’azote liés aux activités d’élevage et identifie des leviers pour limiter la pression sur l’environnement. Depuis une vingtaine d’années, les pollutions azotées font l’objet de diverses législations et plans d’action dans le cadre des politiques relatives à la qualité des eaux, de l’air et des écosystèmes. La transposition de la directive «Nitrates» (12 décembre 1991) fait actuellement l’objet d’un contentieux avec la commission européenne. C’est dans ce contexte que les ministères français en charge de l’Agriculture et de l’Ecologie ont sollicité l’Inra pour dresser un bilan de l’état des connaissances scientifiques sur les flux d’azote en élevage et leur devenir. L’objectif était de mettre à disposition des décideurs et des acteurs publics et privés les connaissances scientifiques actualisées et d’identifier des options permettant de réduire les pressions de l’azote sur l’environnement. 1/LA MÉTHODE D’EXPERTISE SCIENTIFIQUE COLLECTIVELe travail d’expertise a été porté par un collectif de 22 experts. Deux tiers d’entre eux appartiennent à l’Inra, un tiers à d’autres organismes de recherche (Irstea, CNRS, universités) dont deux experts des Pays-Bas (WUR) et un du Canada (Agriculture et Agroalimentaire Canada). Les sciences sociales ont fourni un quart de l’effectif d’experts, la zootechnie et l’approche systémique des systèmes d’élevage 40% et le complément regroupe des spécialistes des cycles biogéochimiques et de l’agronomie. La méthode a consisté à dresser un état des lieux critique des connaissances scientifiques publiées. Quelque 1360 références bibliographiques (2900 auteurs) ont été sélectionnées parmi les articles les plus récents (80% des sources sont postérieures à 1998) et relatifs ou transposables au cadre géographique français. L’analyse a privilégié l’échelle de l’exploitation agricole car c’est l’unité de référence des politiques agricoles et environnementales et des actions agronomiques. Cependant les informations scientifiques portent souvent sur un niveau infra : l’animal, l’atelier d’élevage, la parcelle, le bâtiment, la zone de stockage, etc., ou sur un niveau supra : le bassin versant, le paysage, les statistiques et modélisations nationales et internationales. Ces différents niveaux d’information ont permis d’approcher les variations entre productions et celles liées aux pratiques agricoles. 2 / L’EXPERTISE A MIS EN AVANT LE RÔLE MAJEUR DE L’ÉLEVAGE DANS LES FLUX D’AZOTE ET LES IMPACTS POTENTIELS 2.1 / Les flux d’azote en élevage et les fuites vers l’environnement sont élevésL’élevage utilise plus des trois quarts des quantités d’azote entrant dans les systèmes agricoles. Mais l’efficience, c’est-à-dire le rapport entre les sorties valorisées et les entrées d’azote, calculée au niveau de l’animal est globalement faible : souvent beaucoup moins de la moitié de l’azote ingéré se retrouve sous forme de protéines consommables, lait, œufs et viande. A l’échelle de l’exploitation d’élevage, une part de l’azote excrété dans les déjections est recyclée avec les effluents mais l’efficience reste néanmoins généralement inférieure à 50%. Le reste de l’azote se disperse dans l’environnement. L’élevage contribue ainsi pour environ la moitié aux pertes nationales de nitrates vers les eaux, et pour plus des trois quarts aux émissions nationales atmosphériques azotées, notamment sous forme d’ammoniac (et jusqu’à 90% si on tient compte du fait qu’une grande partie des engrais industriels est employée sur les cultures utilisées pour produire des aliments du bétail). L’azote se trouve de ce fait à la croisée de préoccupations croissantes en termes de compétitivité des filières animales et d’impacts sur l’environnement et sur la santé humaine. Ces impacts ont été récemment décrits dans une expertise européenne (European Nitrogen Assessment 2011). Ils interviennent au niveau de l’écosystème environnant (dépôts de NH3), de la région (NH3, NO3 -) et plus globalement dans le changement climatique (émissions de N2O). 2.2 / La question de l’azote ne se réduit pas à celles du nitrate, les émissions de NH3 constituent un enjeu fort Alors qu’en France, la question du nitrate a longtemps focalisé les débats, dans certains pays d’Europe du Nord, l’ammoniacest aussi de longue date au centre des préoccupations. D’abord étudié pour son rôle dans l’acidification et l’eutrophisation des milieux, l’ammoniac est aujourd’hui examiné dans le cadre de la pollution de l’air par les particules. Au niveau national, le premier contributeur d’émissions d’ammoniac est l’élevage bovin. 2.3 / Risques et impacts dépendent aussi de la sensibilité des territoires et de leur capacité d’épurationLes teneurs en nitrate des eaux ne dépendent pas seulement du niveau de surplus des bilans azotés mais aussi du climat, des types de sol, de la topographie et des modes d’occupation des sols : densité animale, part des terres agricoles dans les utilisations totales des surfaces, importance des prairies permanentes, etc. La présence majoritaire de prairies au sein des territoires réduit les risques de fuites de nitrate et d’émissions d’ammoniac. 3/LES FLUX D’AZOTE SONT AUSSI DÉTERMINÉS PAR DES CONSIDÉRATIONS ÉCONOMIQUES ET JURIDIQUES3.1 / La concentration spatiale des élevages a un rôle déterminant dans les impacts des pollutions azotéesLes plus fortes pressions azotées se situent dans les territoires de l’Ouest qui combinent productions de ruminants et de monogastriques. Les quantités d’azote contenues dans les effluents y dépassent parfois largement les capacités d’absorption des surfaces agricoles. Les territoires d’élevage plus extensifs connaissent des pressions azotées faibles. Cette hétérogénéité s’explique par la concentration géographique des filières animales, résultant principalement de facteurs économiques dont les moteurs relèvent des économies d’échelle et des économies d’agglomération qui sont liées à l’intensification et à la spécialisation des élevages ainsi qu’à leur concentration territoriale. La littérature scientifique pointe la difficulté de sortir d’une telle trajectoire, notamment parce que le fonctionnement technique et économique des acteurs des filières (producteurs d’intrants, éleveurs, transformateurs) est étroitement dépendant. 3.2 / L’encadrement juridique n’a pas permis d’atteindre les objectifs environnementaux La réglementation française a abouti à une multiplicité de zonages auxquels sont dédiés des normes, obligations ou programmes d’action volontaire. L’architecture d’ensemble est confuse et ses résultats critiqués de longue date. Parmi les difficultés rencontrées, la littérature pointe i) le caractère diffus des pollutions, qui, à la différence d’autres pays, n’a pas incité en France àune responsabilisation individuelle des éleveurs, ii) l’intégration de préoccupations économiques et sociales dans les politiques environnementales, iii) le suivi des objectifs environnementaux confié aux acteurs du développement agricole et les échelles administratives peu pertinentes vis-à-vis du réseau hydrographique. Enfin, la multiplicité des formes de pollution azotée pose la question de la cohérence d’ensemble des politiques, notamment entre les critères de la directive «Nitrates» et ceux la Convention de Genève sur la pollution atmosphérique (1979). 4/DE NOMBREUSES PISTES DE PROGRÈS EXISTENT QUI ENGAGENT PLUS OU MOINS EXPLOITANTS AGRICO- LES, TERRITOIRES ET FILIÈRES D’ÉLEVAGE4.1 / Améliorer les pratiques à l’échelle de l’exploitationLa littérature fournit de nombreuses pistes d’actions pour limiter les pertes d’azote dans l’exploitation (figure 1). Il est encore possible d’optimiser la nutrition azotée des animaux, cependant les gains escomptés sont modestes en regard des enjeux. La maîtrise de la chaîne de gestion des effluents ouvre plus de marges de manœuvre pour préserver l’azote organique et réduire les achats d’engrais minéraux. En effet, selon les modalités de gestion des effluents, les fuites vers l’environnement varient de 30 à 75% de l’azote rejeté par les animaux. Des innovations sont déjà disponibles pour le stockage et l’épandage, même si les incertitudes sur les facteurs de variation des émissions sont encore grandes. Il est enfin démontré que développer les prairies à base de légumineuses, les cultures intermédiaires pièges à nitrate (Cipan) et ajuster les rotations réduit les risques de lixiviation du nitrate. A l’échelle des systèmes, les modes de production à bas intrants (moins de fertilisants et d’aliments riches en protéines) améliorent l’efficience de l’azote et limitent donc les pertes vers l’environnement. Les indicateurs de type bilan d’azote à l’échelle de l’exploitation et de ses sous-systèmes (troupeau, gestion des effluents, sols et cultures) sont des outils adaptés pour identifier les sources d’inefficacité et rechercher les voies d’amélioration les mieux adaptées localement. De nombreux autres indicateurs approchent les niveaux d’émissions, de pollution ou les impacts, mais ne sont pas toujours d’usage facile. pour le document complet voir le pdf https://www6.inrae.fr/productions-animales/content/download/6365/88149/version/1/file/nouvelles+de+la+recherche.pdf
APA, Harvard, Vancouver, ISO und andere Zitierweisen
9

Pensieroso, Luca, und Michel De Vroey. „Focus 25 - juin 2020“. Regards économiques, 16.07.2020. http://dx.doi.org/10.14428/regardseco2020.06.04.01.

Der volle Inhalt der Quelle
Annotation:
En décembre 2019, les membres de Rethinking Economics Belgium (dorénavant REB) ont diffusé un rapport intitulé “Dix ans après la crise, faut-il changer la formation des futurs économistes ?”. Ce rapport présente les résultats d’une enquête statistique réalisée auprès d’un échantillon d’étudiants bacheliers en sciences économiques en Fédération Wallonie-Bruxelles entre 2016 et 2017. Ses auteurs y déplorent que l’enseignement des sciences économiques est presque exclusivement centré sur l'approche néoclassique alors que celle-ci, selon eux, souffre d'un biais en faveur de l'idéologie néolibérale. Stigmatisant cette situation comme un manque de pluralisme, le rapport avance un certain nombre de propositions de réforme de l’enseignement et de la recherche en économie. Nous accueillons ce rapport comme une belle opportunité de disputatio et c'est dans cet esprit que notre note a été écrite. Bien que selon nous le rapport comporte plusieurs défauts méthodologiques, notre intention dans cette note est de nous limiter à l’essentiel en proposant une interprétation différente du phénomène que les auteurs du rapport appellent la «domination de la théorie néoclassique» et en défendant l’idée que la question du pluralisme en économie gagne à être abordée d’une manière différente. Une domination néoclassique ? L’approche néoclassique est un courant de la pensée économique qui vit le jour dans le dernier quart du 19ème siècle. Ses piliers sont la notion d'équilibre et la théorie subjective de la valeur, enracinée dans une perspective d'individualisme méthodologique et fondée sur les concepts d’utilité marginale et de productivité marginale*. Les auteurs du document de REB rattachent sa “domination” dans l’enseignement au fait qu’elle existe “quasiment sans partage” dans la recherche. En d’autres termes, elle y occupe le statut de “mainstream”. La notion de mainstream se rencontre fréquemment dans la littérature économique – ainsi que dans le rapport de REB – mais elle est souvent définie d’une manière vague. Dans un article récent (De Vroey et Pensieroso 2020), nous avançons la thèse que cette notion n’est intéressante que si on lui donne un fondement méthodologique au lieu de se contenter de la rattacher à une simple prépondérance statistique. Dans cette vue, une situation de mainstream n’existe que si un consensus s’établit sur des critères méthodologiques considérés comme des sine qua non pour une bonne pratique scientifique. Dans notre article, nous montrons que trois types de situations se sont succédés au cours du 20ème siècle. La première est un état d’absence de mainstream. Elle a perduré jusque dans les années 1980. Ces dernières ont vu l’émergence d’un mainstream en économie théorique, qu’il s’agisse de travaux de pure théorie ou de travaux combinant théorie et mesure empirique. C’est la seconde situation. Elle a émergé à la croisée de deux évolutions distinctes. La première est l’extension à différents champs de l’économie de trois principes méthodologiques déjà en vigueur en théorie des jeux et en microéconomie: (i) le rôle-pivot donné au concept d’équilibre, (ii) la modélisation mathématique et (iii) le caractère micro-fondé de l’analyse, à savoir l’exigence que les fonctions de demande et offre agrégées soient explicitement dérivées des règles de comportement optimisateur suivies par les agents économiques. Une telle extension s’est produite plus ou moins simultanément et d’une manière non-coordonnée dans différentes disciplines comme par exemple la macroéconomie et l’économe industrielle. A son origine, on trouve une insatisfaction quant aux principes méthodologiques en vigueur antérieurement. La seconde évolution est le phénomène général de certification qui a graduellement imprégné nos sociétés pour prendre son plein essor avec l’émergence de l’internet – l’attribution de brevets de qualité et la construction d’échelles appréciatives permettant de classer des objets ou des expériences diverses en fonction de leur excellence. Dans ce contexte, les revues scientifiques, en plus de leur rôle d’instrument de diffusion de la recherche, ont commencé à fonctionner comme organes de certification, séparant les articles respectant les standards méthodologiques de ceux qui ne les respectent pas et sont dès lors écartés. L’effet de cette double transformation se résume en quelques chiffres ayant trait au contenu des articles publiés dans les quatre principales revues économiques (American Economic Review, Econometrica, Journal of Political Economy et Quarterly Journal of Economics) dans les périodes 1970-1990 et 1990-2010. Alors que les articles respectant les trois choix méthodologiques précités représentaient 38 % du total des articles publiés en 1970, en 1990 ils en représentaient 67 % et en 2010 69 %. Nous interprétons ces chiffres comme offrant une indication claire de l’émergence d’un mainstream dans le champ théorique entre 1970 et 1990. Par contre durant cette période, aucun consensus méthodologique n’existait en ce qui concernait les travaux faisant une contribution exclusivement empirique, l’économie appliquée. Mais ce qui n’était pas vrai en 1990 l’est devenu au cours de la première décennie de ce siècle. La situation actuelle se caractérise par la montée en puissance de l’‘économie expérimentale’, ce terme étant entendu dans un sens large comme le commun dénominateur (i) des expériences comportementales de laboratoire, (ii) des randomized controlled trial et (iii) des ‘expériences naturelles’.** Le premier de ces courants résulte de l’adoption par un groupe d’économistes de protocoles expérimentaux propres aux psychologues cognitifs dans le but de justifier le remplacement de l’hypothèse de comportement optimisateur par des hypothèses plus réalistes. Le succès venant, cette démarche est maintenant connue sous le nom d’‘économie comportementale’. Le second découle de l’adoption par des économistes du développement de techniques expérimentales en usage en épidémiologie et centrées sur une confrontation entre groupe de traitement et de groupe de contrôle (cfr. Parienté 2016). Quant aux études d’expériences naturelles, elles consistent à exploiter «des situations où les forces de la nature ou des politiques étatiques semblent avoir conspiré pour produire un environnement proche de celui sur lequel les randomized trials se penchent» (Angrist and Krueger 2001 : 73). Les méthodes adoptées en économie expérimentale au sens large ont eu un impact majeur sur l’économie appliquée. Une nouvelle manière de la concevoir, marquant une triple rupture par rapport à l’économie appliquée traditionnelle, s’est dégagée. On y observe :i) Une émancipation à l’égard des impératifs méthodologiques imposés par les économètres théoriques. Le recours à des outils économétriques plus simples en est la conséquence (cfr. Angrist et Peschke 2017).ii) Une adhésion à la ‘révolution causale’ avec, comme corolaire, un résultat de rétrécissement de l’objet d’étude. L’explanandum est une question concrète et spécifique ayant souvent une incidence politique immédiate; l’explanans est une cause unique. A titre d’exemple, citons l’étude de Dal et Krueger (2002) visant à répondre la question, le fait d’être diplômé d’une université prestigieuse au minerval élevé plutôt que d’une université moins prestigieuse et moins chère génère-t-il une différence de revenu significative une vingtaine d’année après l’obtention du diplôme ?iii) Le recours à des instruments statistiques - telles que les variables instrumentales, la stratégie de double différence ou les discontinuités de régression - visant à éliminer les biais de sélection ou d’omissions et dont les règles de bon usage font l’objet d’un consensus à l’intérieur de la communauté des économistes appliqués. Le mainstream théorique se voit ainsi complété par un mainstream empirique fondé sur des règles méthodologiques régissant chacune de trois composantes de l’économie expérimentale. De nos jours, il y a donc deux manières d’appartenir au mainstream. La première résulte d’une définition méthodologique de ce qui est considéré être une bonne pratique théorique, la seconde d’une définition méthodologique de ce qui est considéré être une bonne pratique empirique. Notre analyse sur le débat ouvert par le rapport REB a deux retombées. En premier lieu, on peut se demander si mainstream et approche néoclassique coïncident. A strictement parler, cela n’est pas le cas. D’abord, la théorie des jeux est une composante du mainstream qui ne peut être identifiée à l’approche néoclassique. Ensuite, il y a des travaux néoclassiques qui se trouvent être exclus du mainstream - la théorie autrichienne, parce qu’elle n’adopte pas le langage mathématique, et les études néoclassiques qui n’adoptent pas la démarche de micro-fondements. Enfin, en 2010, la part du mainstream empirique dans le total des deux mainstreams représentait 22 %. Or, par définition, aucun des articles qui en font partie n’appartient à l’approche néoclassique. Le tableau contemporain est donc bien plus riche et varié que ce qui est dépeint dans le rapport REB. La seconde question qui se pose du fait de l’existence d’un mainstream en économie porte sur l’interprétation de cette réalité. Il est clair que les tenants des approches écartées se sentent frustrés d’être exclus du mainstream avec toutes les conséquences professionnelles qui en découlent. Ils auront donc tendance à voir cette situation comme une régression par rapport à une situation antérieure plus satisfaisante car marquée du sceau du pluralisme. Par contre, les économistes dont les travaux s’inscrivent à l’intérieur des critères définissant le mainstream peuvent avancer l’idée que l’unification de la discipline autour de critères méthodologiques clairs et nets est un signe de progrès. En conséquence, la question de savoir si l’existence d’un mainstream est une régression ou la marque d’un progrès ne peut recevoir de réponse univoque. Une absence de pluralisme ? Trois stratégies s’offrent aux tenants de choix méthodologiques exclus du mainstream. La première (et la plus intéressante à nos yeux) est de centrer leur énergie sur le développement de leur paradigme préféré, comme si de rien n’était, dans le but d’en démontrer la fécondité explicative. La seconde vise à convaincre les tenants du mainstream que les choix de base sur lesquels ils reposent sont inadéquats. A notre avis, les chances de succès de cette seconde stratégie sont minimes si, comme nous le pensons, les révolutions théoriques trouvent en général leurs origines dans des faiblesses mises en avant par une critique interne. La troisième consiste à affirmer que l’existence même d’un mainstream est condamnable parce qu’il s’agit d’un manque de pluralisme. Comme ce point de vue occupe une place centrale dans le document REB, il mérite d’être passé au crible. A nos yeux, la justification qui en est donnée n’est pas convaincante. Le fait que l’exigence de pluralisme est d’une importance primordiale dans le domaine de la démocratie politique et de l’information n’implique pas que ceci soit aussi le cas pour la connaissance scientifique. Comme nous l’avons déjà évoqué plus haut, une unification paradigmatique peut être interprétée comme une marque de progrès. Il reste qu’en économie, peut-être plus que dans d’autres sciences, la question du pluralisme doit être posée. Mais, à nos yeux, elle doit l’être dans d’autres termes. Depuis Adam Smith jusqu’à nos jours, les économistes ont débattu de la meilleure manière d’organiser la société dans sa dimension économique. L’objet d’étude de la science économique est donc éminemment politique. D’ailleurs, les travaux économiques débouchent souvent, sinon toujours, sur des conclusions de politique économique. L’enjeu sous-jacent porte sur le rôle respectif de l’Etat et des forces de marchés dans le fonctionnement de l’économie. Schématiquement, trois visions du capitalisme sont en présence : une vision pleinement libérale (le laissez faire d’Hayek ou de Friedman), une vision marxiste et une vision que l’on peut qualifier de «libéralisme mitigé» ou de «libéralisme raisonné». Cette dernière, associée notamment au nom de Keynes, consiste en une défense de l’économie de marché allant de pair avec la réalisation qu’elle peut rencontrer des échecs de fonctionnement auxquels seules des interventions étatiques sont à même de remédier. L’accusation de manque de pluralisme serait pertinente s’il s’avérait que le mainstream théorique, tel que nous l’avons cerné dans la section précédente, est intrinsèquement partisan d’une seule vision, le plein libéralisme par exemple. Dans un article, publié dans les Regards Économiques en 2018, nous avons démontré que cela n’est pas le cas en nous centrant sur trois épisodes de l’histoire des théories économiques - une comparaison du cadre conceptuel de Marx et des économistes classiques, l’utilisation de la théorie walrasienne pour justifier le socialisme et les controverses entre keynésiens et monétaristes. Dans cette perspective, tant la théorie classique que la théorie néoclassique sont un langage qui peut être mis au service de visions du capitalisme différentes. L’existence d’un mainstream en économie n’est donc pas synonyme d’un manque de pluralisme en économie. * Cfr. De Vroey et Pensieroso (2018) pour plus de détails.** En témoignent les prix Nobel en économie décernés à D. Kahneman et V. Smith en 2002, à A. Roth en 2012, à R. Shiller en 2013, à R. Thaler en 2017 et à A. Banerjee, E. Duflo and M. Kremer en 2019. Références: Angrist, J. and A. Krueger (2001), “Instrumental Variables and the Search for Identification: From Supply and Demand to Natural Experiments.” Journal of Economic Perspectives. 15, No. 4 : 69-85. Angrist, J. and J-S. Pischke. 2009. Mostly Harmless Econometrics. An Empiricist's Companion. Princeton (N. J.) and Oxford, Princeton University Press. Dale, S. and Al Krueger. 2002. “Estimating the Payoff to Attending a More Selective College: An Application of Selection on Observables and Unobservables.” Quarterly Journal of Economics 117: 1491–1527. De Vroey M. et L. Pensieroso (2020), “Mainstream Economics. Its Rise and Evolution”, mimeo. De Vroey M. et L. Pensieroso (2018), “La question du pluralisme en économie. Une mise en perspective”, Regards Économiques, numéro 137. Parienté W. (2016), “Mesurer l'effet des politiques publiques : l'essor des évaluations aléatoires”, Regards Économiques, numéro 124. Rethinking Economics Belgium (2019), 10 ans après la crise : faut-il changer la formation des futur·e·s économistes ?
APA, Harvard, Vancouver, ISO und andere Zitierweisen
10

Philippe, Jean-Robert. „L’IA, un outil de diagnostic pour le contrôle en ligne par radiographie industrielle“. e-journal of nondestructive testing 28, Nr. 9 (September 2023). http://dx.doi.org/10.58286/28480.

Der volle Inhalt der Quelle
Annotation:
L'intelligence artificielle (IA) est de plus en plus utilisée pour le diagnostic en ligne dans le domaine de la radiographie industrielle. Les avancées dans les algorithmes de classification et de segmentation sémantique ces dernières années constituent des outils qui permettent une détection plus précise des détails dans les images radiographiques, ce qui constitue une avancée majeure par rapports aux algorithmes traditionnels à base de traitements d’images « classiques » ou méthodes statistiques. Nous présentons ici 3 approches IA en radiographie industrielle, développées à des fins de diagnostic pour du contrôle sur ligne de production. ▪ La première approche, basée sur la classification, consiste à élaborer et entrainer un réseau de neurones de type CNN pour un établir un diagnostic qualité sur ligne de production sur image radiographique. Les images d’acquisition radiographique dont il est question ici sont des images acquises au moyen d’un capteur matriciel (projection conique). ▪ Les deux autres approches traitent du contrôle radiographique industriel sur ligne de production acquises au moyen d’un capteur linéaire (donc géométrie de projection semi-conique). ▪ La première de ces deux approches consiste à apprendre à un modèle de type Variational Autoencoder un pattern de « normalité », de la structure du matériau analysé, permettant ainsi de s’affranchir de l’apprentissage des défauts. ▪ La deuxième de ces deux approches consiste par des moyens de segmentation sémantique à détecter des défauts sur un produit à sur l’image. Le modèle ainsi conçu et entrainé, consiste en une segmentation sémantique à 5 sorties (4 classes de défauts et le background).
APA, Harvard, Vancouver, ISO und andere Zitierweisen

Dissertationen zum Thema "Économie industrielle – Méthodes statistiques"

1

Mesnard, Louis de. „Analyse de la dynamique de la structure interindustrielle française par filtrage biproportionnel : méthode et application à la période 1970-1985“. Paris 1, 1988. http://www.theses.fr/1988PA010057.

Der volle Inhalt der Quelle
Annotation:
On a cherché à mettre à profit l'existence, pour la première fois en France, d'une longue série de tableaux entrées-sorties (de 1970 à 1985) pour analyser l'évolution temporelle de la structure interindustrielle française. Le principe de la comparaison des tableaux entrées-sorties consiste à filtrer les variations des marges pour ne garder que la variation structurelle. On présente d'une part la méthode, le filtre biproportionnel, avec les théorèmes d'existence et de convergence nécessaires, et avec des indicateurs de mesure de l'intensité et de la contribution au changement. La seconde partie de la thèse développe les résultats pour la période 1970-1985, d'abord sur la structure interindustrielle seule, puis en incorporant les ménages et l'extérieur. On met en évidence une logique de chocs plutôt qu'une logique tendancielle du changement structurel, reflétée par des évolutions heurtées à partir de 1976, en 1979, 1982 et 1984. Les ménages apparaissent comme un facteur de stabilisation, surtout à partir de la deuxieme moitié de la période, à l'inverse de l'extérieur. Les résultats sont détaillés par branches et par années (au niveau 40).
APA, Harvard, Vancouver, ISO und andere Zitierweisen
2

Jacoby, Nadia. „L'influence des processus de sélection interne sur les performances des firmes : un modèle évolutionniste de micro-simulation“. Paris 1, 2002. http://www.theses.fr/2002PA010063.

Der volle Inhalt der Quelle
Annotation:
L'objet de cette thèse est de mettre en évidence la nécessité d'étudier les mécanismes de sélection interne dans l'analyse dynamique de l'évolution des firmes. Sur le plan théorique et conceptuel, elle insiste sur la nécessité de traiter conjointement les dimensions intra et inter-organisationnelles. Afin d'étayer la réflexion et l'argumentation théorique, un modèle évolutionniste de micro-simulation est développé avec pour objectif de montrer l'importance des mécanismes de sélection interne et de mettre en évidence leur influence sur les performances des firmes. Ce modèle fournit des résultats pertinents, en accord avec les conjectures théoriques proposées; il montre notamment l'influence de la sélection interne sur la performance des firmes. L'originalité de la thèse est de faire le lien entre les approches intra et inter-organisationnelles. La problématique de la sélection interne est un bon point de départ pour une réarticulation des contributions issues du paradigme évolutionniste
APA, Harvard, Vancouver, ISO und andere Zitierweisen
3

Baumont, Catherine. „Contribution à l'analyse des espaces urbains multicentriques : la localisation résidentielle : étude théorique et empirique“. Dijon, 1990. http://www.theses.fr/1990DIJOE004.

Der volle Inhalt der Quelle
Annotation:
La thèse se présente en trois parties. La première partie est consacrée a l'analyse de l'intégration des espaces urbains multicentriques en analyse spatiale. Un premier chapitre présente l'analyse des espaces urbains multicentriques comme une alternative aux modèles urbains monocentriques. Un deuxième chapitre insiste sur le caractère imprécis des espaces urbains multicentriques. Dans la deuxième partie, l'équilibre spatial du ménage dans une ville multicentrique est traité. La formalisation traditionnelle : maximisation d'une utilité résidentielle sous une contrainte budgétaire, presentée dans le troisième chapitre, souffre de défauts que le modèle flou construit dans le quatrième chapitre peut dépasser. Enfin, dans la troisième partie, une étude économétrique des deux modèles est réalisée. Les caractéristiques techniques des tests sont décrites dans un cinquième chapitre, tandis que les résultats des tests (sur la fonction d'utilité de résidence, sur la fonction de coût de logement et sur le caractère opérationnel des deux modèles) sont présentes dans le sixième et dernier chapitre. On montre alors que l'agglomération dijonnaise présente, au vu des tests, une structure multicentrique et que le modèle flou permet d'apporter une solution économique satisfaisante au problème de la localisation résidentielle
The thesis is divided into three parts. The first part is devoted to the analysis of multicenter urban spaces integration in spatial analysis. Both fuzzy and non fuzzy characteristics of them are taken into account. In the second part we try to solve the problem of spatial equilibrium of household in a multicenter urban pattern and we construct two models : a standard model and a fuzzy model. Then in the third part we present an econometric study based on the models described in the second part. Dijon is the urban area chosen for the test. The fuzzy approach allows us to bring an interesting economoc solution of household location in multicenter urban spaces
APA, Harvard, Vancouver, ISO und andere Zitierweisen
4

Archimbaud, Aurore. „Méthodes statistiques de détection d’observations atypiques pour des données en grande dimension“. Thesis, Toulouse 1, 2018. http://www.theses.fr/2018TOU10001/document.

Der volle Inhalt der Quelle
Annotation:
La détection d’observations atypiques de manière non-supervisée est un enjeu crucial dans la pratique de la statistique. Dans le domaine de la détection de défauts industriels, cette tâche est d’une importance capitale pour assurer une production de haute qualité. Avec l’accroissement exponentiel du nombre de mesures effectuées sur les composants électroniques, la problématique de la grande dimension se pose lors de la recherche d’anomalies. Pour relever ce challenge, l’entreprise ippon innovation, spécialiste en statistique industrielle et détection d’anomalies, s’est associée au laboratoire de recherche TSE-R en finançant ce travail de thèse. Le premier chapitre commence par présenter le contexte du contrôle de qualité et les différentes procédures déjà mises en place, principalement dans les entreprises de semi-conducteurs pour l’automobile. Comme ces pratiques ne répondent pas aux nouvelles attentes requises par le traitement de données en grande dimension, d’autres solutions doivent être envisagées. La suite du chapitre résume l’ensemble des méthodes multivariées et non supervisées de détection d’observations atypiques existantes, en insistant tout particulièrement sur celles qui gèrent des données en grande dimension. Le Chapitre 2 montre théoriquement que la très connue distance de Mahalanobis n’est pas adaptée à la détection d’anomalies si celles-ci sont contenues dans un sous-espace de petite dimension alors que le nombre de variables est grand.Dans ce contexte, la méthode Invariant Coordinate Selection (ICS) est alors introduite comme une alternative intéressante à la mise en évidence de la structure des données atypiques. Une méthodologie pour sélectionner seulement les composantes d’intérêt est proposée et ses performances sont comparées aux standards habituels sur des simulations ainsi que sur des exemples réels industriels. Cette nouvelle procédure a été mise en oeuvre dans un package R, ICSOutlier, présenté dans le Chapitre 3 ainsi que dans une application R shiny (package ICSShiny) qui rend son utilisation plus simple et plus attractive.Une des conséquences directes de l’augmentation du nombre de dimensions est la singularité des estimateurs de dispersion multivariés, dès que certaines variables sont colinéaires ou que leur nombre excède le nombre d’individus. Or, la définition d’ICS par Tyler et al. (2009) se base sur des estimateurs de dispersion définis positifs. Le Chapitre 4 envisage différentes pistes pour adapter le critère d’ICS et investigue de manière théorique les propriétés de chacune des propositions présentées. La question de l’affine invariance de la méthode est en particulier étudiée. Enfin le dernier chapitre, se consacre à l’algorithme développé pour l’entreprise. Bien que cet algorithme soit confidentiel, le chapitre donne les idées générales et précise les challenges relevés, notamment numériques
The unsupervised outlier detection is a crucial issue in statistics. More specifically, in the industrial context of fault detection, this task is of great importance for ensuring a high quality production. With the exponential increase in the number of measurements on electronic components, the concern of high dimensional data arises in the identification of outlying observations. The ippon innovation company, an expert in industrial statistics and anomaly detection, wanted to deal with this new situation. So, it collaborated with the TSE-R research laboratory by financing this thesis work. The first chapter presents the quality control context and the different procedures mainly used in the automotive industry of semiconductors. However, these practices do not meet the new expectations required in dealing with high dimensional data, so other solutions need to be considered. The remainder of the chapter summarizes unsupervised multivariate methods for outlier detection, with a particular emphasis on those dealing with high dimensional data. Chapter 2 demonstrates that the well-known Mahalanobis distance presents some difficulties to detect the outlying observations that lie in a smaller subspace while the number of variables is large. In this context, the Invariant Coordinate Selection (ICS) method is introduced as an interesting alternative for highlighting the structure of outlierness. A methodology for selecting only the relevant components is proposed. A simulation study provides a comparison with benchmark methods. The performance of our proposal is also evaluated on real industrial data sets. This new procedure has been implemented in an R package, ICSOutlier, presented in Chapter 3, and in an R shiny application (package ICSShiny) that makes it more user-friendly. When the number of dimensions increases, the multivariate scatter matrices turn out to be singular as soon as some variables are collinear or if their number exceeds the number of individuals. However, in the presentation of ICS by Tyler et al. (2009), the scatter estimators are defined as positive definite matrices. Chapter 4 proposes three different ways for adapting the ICS method to singular scatter matrices and theoretically investigates their properties. The question of affine invariance is analyzed in particular. Finally, the last chapter is dedicated to the algorithm developed for the company. Although the algorithm is confidential, the chapter presents the main ideas and the challenges, mostly numerical, encountered during its development
APA, Harvard, Vancouver, ISO und andere Zitierweisen
5

Chancellier, Eric. „La modélisation du cycle économique : formes, usages, instruments (1887-1950)“. Angers, 2006. http://www.theses.fr/2006ANGE0051.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
6

Maweki, Batana Yélé. „Comparaisons multidimensionnelles de bien-être et de pauvreté : méthodes, inférence et applications“. Doctoral thesis, Université Laval, 2008. http://hdl.handle.net/20.500.11794/20214.

Der volle Inhalt der Quelle
Annotation:
L'objectif de cette thèse est de proposer une démarche statistique adéquate pour réaliser des comparaisons robustes en bien-être lorsqu'on traite de distributions multivariées. Après une revue critique des inférences statistiques basées sur des hypothèses composites, la formulation de type intersection-union a été retenue pour établir des comparaisons robustes et univoques en termes de dominance stricte. Davidson et Duclos (2006) proposent dans ce sens, une méthode basée sur le ratio de vraisemblance empirique pour tester la dominance stochastique dans le contexte de distributions univariées. Cette méthode est étendue ici aux distributions multivariées, ce qui, dans le cadre de l'analyse de la pauvreté et du bien-être, concorde avec l'évolution récente de la littérature qui favorise l'usage de plusieurs dimensions pour étudier la répartition du bien-être. Un premier exercice consiste à analyser les performances de la démarche proposée dans le contexte bidimensionnel. La démarche, basée sur la maximisation d'une fonction de vraisemblance empirique, teste l'hypothèse nulle de non dominance contre l'alternative de dominance. La statistique de test est pivotale, ce qui permet de réaliser des tests de bootstrap. Des simulations de Monte Carlo permettent d'étudier le niveau et la puissance des tests. Une fois les performances du test jugées acceptables, des applications sont réalisées pour analyser* les relations de dominance stochastique en pauvreté entre quelques pays africains. Pour définir les distributions, les deux dimensions considérées sont le statut nutritionnel et un indice de richesse estimé par les méthodes d'analyse factorielle à partir de données EDS (Enquêtes démographie et santé). Un troisième volet consiste à considérer le cas où l'une des deux dimensions de la distribution est une variable discrète. L'on teste alors des relations de dominance stochastique séquentielle en bien-être et en pauvreté, en utilisant une démarche statistique analogue à celle du chapitre précédent. Enfin, un dernier exercice analyse le phénomène de la mobilité qui constitue un aspect dynamique de la distribution de bien-être. Des conditions de dominance stochastique en mobilité au premier et au second ordre sont dérivées et des tests sont à nouveau réalisés sous l'hypothèse nulle de non dominance contre l'alternative de dominance. L'application est faite à partir des données américaines du PSID (Panel Studies of Income Dynamics).
APA, Harvard, Vancouver, ISO und andere Zitierweisen
7

Antomarchi, Philippe. „Les barrières à l'entrée en économique industrielle : perspectives théoriques et modélisation“. Aix-Marseille 2, 1998. http://www.theses.fr/1998AIX2A003.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
8

Oger, Julie. „Méthodes probabilistes pour l'évaluation de risques en production industrielle“. Phd thesis, Université François Rabelais - Tours, 2014. http://tel.archives-ouvertes.fr/tel-00982740.

Der volle Inhalt der Quelle
Annotation:
Dans un contexte industriel compétitif, une prévision fiable du rendement est une information primordiale pour déterminer avec précision les coûts de production et donc assurer la rentabilité d'un projet. La quantification des risques en amont du démarrage d'un processus de fabrication permet des prises de décision efficaces. Durant la phase de conception d'un produit, les efforts de développement peuvent être alors identifiés et ordonnés par priorité. Afin de mesurer l'impact des fluctuations des procédés industriels sur les performances d'un produit donné, la construction de la probabilité du risque défaillance est développée dans cette thèse. La relation complexe entre le processus de fabrication et le produit conçu (non linéaire, caractéristiques multi-modales...) est assurée par une méthode de régression bayésienne. Un champ aléatoire représente ainsi, pour chaque configuration du produit, l'information disponible concernant la probabilité de défaillance. Après une présentation du modèle gaussien, nous décrivons un raisonnement bayésien évitant le choix a priori des paramètres de position et d'échelle. Dans notre modèle, le mélange gaussien a priori, conditionné par des données mesurées (ou calculées), conduit à un posterior caractérisé par une distribution de Student multivariée. La nature probabiliste du modèle est alors exploitée pour construire une probabilité de risque de défaillance, définie comme une variable aléatoire. Pour ce faire, notre approche consiste à considérer comme aléatoire toutes les données inconnues, inaccessibles ou fluctuantes. Afin de propager les incertitudes, une approche basée sur les ensembles flous fournit un cadre approprié pour la mise en oeuvre d'un modèle bayésien imitant le raisonnement d'expert. L'idée sous-jacente est d'ajouter un minimum d'information a priori dans le modèle du risque de défaillance. Notre méthodologie a été mise en oeuvre dans un logiciel nommé GoNoGo. La pertinence de cette approche est illustrée par des exemples théoriques ainsi que sur un exemple réel provenant de la société STMicroelectronics.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
9

Marniesse, Sarah. „Dynamique des microentreprises dans les pays en développement : approche descriptive et analytique sur échantillons constants“. Paris 1, 1998. http://www.theses.fr/1998PA010028.

Der volle Inhalt der Quelle
Annotation:
Cette étude est née d'une interrogation sur la capacité des microentreprises à se développer. Depuis une vingtaine d'années, les économies des pays africains et de certains PED hors d'Afrique se caractérisent, à des degrés divers, par la croissance du chômage urbain et de la pauvreté. Dans ce contexte, l'importance socio-économique des micro-entreprises s'accentue. Notre étude traite de la dynamique des microentreprises. Après un survol de la littérature théorique et empirique traitant de l'hétérogénéite des tailles comme des trajectoires d'entreprises, un modèle explicatif de la dynamique des microentreprises dans les PED est proposé, qui est testé dans la suite de la thèse. Nous avons, pour la première fois, mis en oeuvre une enquête sur des échantillons constants de microentreprises. Plus de 900 microentreprises ont ainsi été recherchés, dont les deux-tiers ont été retrouvées, et plus de 500 d'entre elles soumises à une enquête. Cette étude permet d'analyser les déterminants, par des méthodes statistiques et économetriques, des disparitions d'entreprises ainsi que les facteurs explicatifs de la création d'emplois. Les hypothèses faites en amont sont ainsi confirmées ou non. Les questions suivantes sont abordées : - la comparaison des trajectoires et la mesure de leurs déterminants permet de comprendre pourquoi des microentreprises reussissent mieux que d'autres. - Des questions liées à la théorie de la décision et à l'influence particulière des contextes en développement sont abordées. - On est amené à étudier l'importance relative des differentes formes d'emploi et leurs évolutions quand l'entreprise croit. - L'observation de la trajectoire pose aussi le problème de la convergence vers une taille limite et débouche sur des questions liées à l'étude des structures de marché - Enfin, l'analyse des facteurs explicatifs des trajectoires rencontre des préoccupations de politique économique
This thesis arises from an interrogation regarding the capacity of micro-enterprises to develop. For twenty years or so, the economies of Africa (and some non-african developing economies) have been characterised, to varying degrees, by a growth of urban unemployment and rising poverty. In this context, the socio-economic role of micro-entreprises becomes more important. This study looks at the dynamics of micro-enterprises. A review of existing theoretical and empirical literature concerning the diversity of size as enterprise growth trajectories leads to the proposal of a model explaining the dynamics of micro-enterprises in developing countries. This model is subsequently tested in the thesis. We have, for the first time, undertaken a survey of a constant sample of micro-enterprises. More than 900 micro-enterprises were sought, of which two-thirds were located and over 500 were included in the survey. This study allowed the use of statistical and econometric methods in the analysis of the determinants of enterprise disappearance, as well as of the factors explaining employment creation. Pre-established hypotheses could thus be confirmed, or refuted. The following questions are addressed : - The comparison of growth trajectories and the measurement of their determinants allows an understanding of why some micro-enterprises succeed better than others. - Questions are raised regarding decision making theory and the particular influence of evolving circumstances. - The relative importance of various forms of employment when enterprises expand is studied. - Observation of growth paths raises the difficulty of convergence with a limiting size and poses questions linked to the study of market structures. - Finally, analysis of factors explaining growth paths is linked to the preoccupations of economic policies
APA, Harvard, Vancouver, ISO und andere Zitierweisen
10

Karamtiz, Chiraz. „Indices de prix pour les services de la téléphonie mobile en France : application des méthodes de prix hédoniques“. Paris, ENST, 2006. http://www.theses.fr/2006ENST0025.

Der volle Inhalt der Quelle
Annotation:
Le marché français de la téléphonie mobile se caractérise par des innovations continues, un accroissement de la qualité des services engendré par les progrès technologiques, une segmentation de l’offre et des chutes des prix suite à des changements tarifaires. La diversité des formules tarifaires et des types de prestations, s’ajoute à une tarification complexe et rendent difficile toute comparaison directe des prix. Ce travail de recherche porte sur la problématique que pose la mesure des variations de prix dans le secteur de la téléphonie mobile. Il s’inscrit notamment dans le courant de recherche apparu récemment en statistique économique visant à étudier les apports de la modélisation hédonique dans les problèmes d’ajustement des indices de prix aux variations de la qualité pour les produits complexes. Les résultats obtenus mettent en évidence des fortes baisses des prix à l’année 1997. Cette baisse des prix, caractéristique des nouveaux produits, a contribué à dynamiser la demande et a constitué un levier important à la diffusion de la téléphonie mobile. Les niveaux des prix se sont stabilisés à compter de 1998 date à partir de laquelle la différenciation par la qualité est de moins en mois forte sur le marché. L’approche hédonique s’avère un outil intéressant, d’abord pour le régulateur en lui permettant de voir comment les opérateurs se positionnent par rapport aux prix hédoniques, considérés comme prix de référence. D’autre part, pour les opérateurs, les prix hédoniques peuvent être utilisés comme instrument de veille concurrentielle. Enfin, pour les consommateurs, c’est un indicateur de comparaison entre les différentes formules tarifaires
In this research we develop an understanding of how price indexes are constructed and interpreted, how quality and price are related. We underline that, a very important issue for price compilers concerns how price indexes should be adjusted to account properly for quality change. This challenge is more pronounced in high technology products, particularly mobile telephony services, since quality changes in this industry has been very rapid. The technological and commercial innovations that continuously characterize the evolution of the market make it possible to offer increasingly complex and diversified products at lower and lower prices. The quality changes of the services offered on the market due to frequent waves of innovation induce several dimensions in price measurement problem. This research explain the derivation of a price index for the mobile telephony market in France for the period from 1996 to 2002. It study the use of Hedonic measures to correct such an index for quality changes of the services offered on the market due to frequent waves of innovation. The results underline a remarkable fall of the quality-adjusted price index from 1997 to 1999 while on the remaining period the price decrease tends to flatten. We demonstrate also that price indexes measurements for mobile telephony services, at least for the first time period, are largely determined by the networks’ quality and coverage. The omission of these features of quality from the price indices measurements results in an under-valuation of the true price decline for the mobile-telephony services. Most of the other characteristics are add-on options that do not affect price indexes to a large extent
APA, Harvard, Vancouver, ISO und andere Zitierweisen

Bücher zum Thema "Économie industrielle – Méthodes statistiques"

1

Fourastié, Jacqueline. Statistiques appliquées à l'économie. 2. Aufl. Paris: Masson, 1988.

Den vollen Inhalt der Quelle finden
APA, Harvard, Vancouver, ISO und andere Zitierweisen
2

1954-, Carrère Christine, Hrsg. Statistiques descriptives: Exercices. Grenoble: Presses universitaires de Grenoble, 2007.

Den vollen Inhalt der Quelle finden
APA, Harvard, Vancouver, ISO und andere Zitierweisen
3

Serge, Volkoff, und Cristofari Marie-France, Hrsg. L' ergonomie et les chiffres de la santé au travail: Ressources, tensions et pièges. Toulouse: Octares, 2005.

Den vollen Inhalt der Quelle finden
APA, Harvard, Vancouver, ISO und andere Zitierweisen
4

1959-, Chomé Sylvie, Larocque Denis 1967- und Ouellet Roch 1946-, Hrsg. Méthodes statistiques pour les sciences de la gestion. Montréal: Chenelière / McGraw-Hill, 2006.

Den vollen Inhalt der Quelle finden
APA, Harvard, Vancouver, ISO und andere Zitierweisen
5

Wonnacott, Thomas H. Statistique. 3. Aufl. Paris: Economica, 1988.

Den vollen Inhalt der Quelle finden
APA, Harvard, Vancouver, ISO und andere Zitierweisen
6

Martel, Jean-Marc. Statistique en gestion et en économie. Montréal: G. Morin, 1988.

Den vollen Inhalt der Quelle finden
APA, Harvard, Vancouver, ISO und andere Zitierweisen
7

Statistique Canada. Division des comptes nationaux et de l'environnement. Concepts, sources et méthodes du Système des comptes de l'environnement et des ressources du Canada. Ottawa, Ont: Statistique Canada, 1997.

Den vollen Inhalt der Quelle finden
APA, Harvard, Vancouver, ISO und andere Zitierweisen
8

Brian, Warrack, Hrsg. Solutions manual for Statistics for management and economics: A systematic approach. USA: Wadsworth, 1994.

Den vollen Inhalt der Quelle finden
APA, Harvard, Vancouver, ISO und andere Zitierweisen
9

Instructor's manual to accompany Essentials of econometrics. New York: McGraw-Hill, 1992.

Den vollen Inhalt der Quelle finden
APA, Harvard, Vancouver, ISO und andere Zitierweisen
10

McClave, James T. Statistics for business and economics. Upper Saddle River: Pearson Prentice Hall, 2009.

Den vollen Inhalt der Quelle finden
APA, Harvard, Vancouver, ISO und andere Zitierweisen
Wir bieten Rabatte auf alle Premium-Pläne für Autoren, deren Werke in thematische Literatursammlungen aufgenommen wurden. Kontaktieren Sie uns, um einen einzigartigen Promo-Code zu erhalten!

Zur Bibliographie