Auswahl der wissenschaftlichen Literatur zum Thema „Organisation industrielle – Méthodes statistiques“

Geben Sie eine Quelle nach APA, MLA, Chicago, Harvard und anderen Zitierweisen an

Wählen Sie eine Art der Quelle aus:

Machen Sie sich mit den Listen der aktuellen Artikel, Bücher, Dissertationen, Berichten und anderer wissenschaftlichen Quellen zum Thema "Organisation industrielle – Méthodes statistiques" bekannt.

Neben jedem Werk im Literaturverzeichnis ist die Option "Zur Bibliographie hinzufügen" verfügbar. Nutzen Sie sie, wird Ihre bibliographische Angabe des gewählten Werkes nach der nötigen Zitierweise (APA, MLA, Harvard, Chicago, Vancouver usw.) automatisch gestaltet.

Sie können auch den vollen Text der wissenschaftlichen Publikation im PDF-Format herunterladen und eine Online-Annotation der Arbeit lesen, wenn die relevanten Parameter in den Metadaten verfügbar sind.

Zeitschriftenartikel zum Thema "Organisation industrielle – Méthodes statistiques"

1

Dugas, Clermont. „Étude des facteurs de modification de la répartition du peuplement dans l’Est du Québec (1966-1971)“. Cahiers de géographie du Québec 19, Nr. 46 (12.04.2005): 167–88. http://dx.doi.org/10.7202/021252ar.

Der volle Inhalt der Quelle
Annotation:
La région de l'Est du Québec, située au sud du fleuve Saint-Laurent et s'étendant du comté de Kamouraska à l'ouest à celui des Îles-de-la-Madeleine à l'est, couvre une superficie de l'ordre de 44 000 kilomètres carrés dont au moins 85% est occupée par la forêt. Ce vaste territoire renfermait, en 1971, une population de 325 000 personnes réparties en 214 localités. Le peuplement, qui s'étire le long de 9 000 kilomètres de routes, demeure très dispersé et mal hiérarchisé. Depuis 1961, une véritable désorganisation de l'espace s'est amorcée. Seulement 49 localités ont pu bénéficier d'une stabilité ou de légers gains démographiques. Compte tenu du caractère rural de la région, il est logique de se demander si l'abandon des terres et de l'agriculture est responsable du fort courant migratoire vers l'extérieur et, par conséquent, de la décroissance démographique de la plupart des localités. D'autre part, on peut aussi rechercher à quels facteurs on peut attribuer la croissance démographique de certaines localités. Par l'utilisation de méthodes statistiques telles que l'analyse factorielle et la régression multiple, on arrive à cerner un peu mieux le rôle joué par l'agriculture, la mauvaise structuration de l'espace, la production industrielle et les équipements commerciaux sur les modifications de la structure du peuplement.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
2

FORTIN, Andrée. „La sociologie, science de/dans la société“. Sociologie et sociétés 12, Nr. 2 (30.09.2002): 75–96. http://dx.doi.org/10.7202/001248ar.

Der volle Inhalt der Quelle
Annotation:
Résumé La science occidentale a connu deux crises depuis le début du siècle. La première, à la suite de la découverte de la relativité et de la théorie des quanta, a modifié la conception classique de la causalité, du déterminisme et de l'espace-temps. La deuxième, apparue à la suite des développements de la cybernétique, de l'écologie, de la théorie de l'auto-organisation, met en évidence l'importance des processus dans leur déroulement, de la causalité complexe et des feedback, des processus contre-intuitifs et contre-productifs ; l'accent est désormais déplacé de l'être vers le devenir. Partout apparaît la nécessité de replacer les objets dans leur contexte, et se retrouvent mises en question les coupures sujet/objet, contenant/contenu, ainsi que la neutralité de la science. La sociologie ne doit pas être à la remorque épistémologique des autres sciences, elle ne doit pas non plus rester accrochée à des conceptions qui semblent dépassées partout ailleurs. C'est ainsi que cette nouvelle conception scientifique qui est celle qui se dégage en cette fin de xxe siècle oblige à repenser la sociologie dans son objet et dans ses méthodes. Dans son objet d'abord, en élargissant le domaine des possibles en matière d'organisation sociale : en plus de la société primitive et de l'État moderne, se profile la possibilité d'une société auto-organisatrice, auto-instituante et autogérée; et en ce qui concerne les méthodes de la sociologie, aucune ne peut se dire neutre, il faut toujours les replacer dans leur contexte d'élaboration et d'utilisation. On examine ici - rapidement - tour à tour différentes méthodes quantitatives et qualitatives : statistiques, théories des systèmes, structuralisme, sémiologie, histoires de vie, épistémologie, pour essayer d'en saisir les limites et la portée méthodologique, théorique et pratique.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
3

Otero, Maria Rita, Viviana Carolina Llanos und Veronica Parra. „Training in-service teachers: study of questions and the organization of teachingFormation des enseignants en service: étude des questions et organisation de l'enseignement“. Educação Matemática Pesquisa : Revista do Programa de Estudos Pós-Graduados em Educação Matemática 22, Nr. 4 (15.09.2020): 742–55. http://dx.doi.org/10.23925/1983-3156.2020v22i4p742-755.

Der volle Inhalt der Quelle
Annotation:
AbstractWe analyse the study and research carried out by N = 31 teachers in service during an on-line course in Didactics of Mathematics, about a question that could generate a Study and research path (SRP). The teachers studied the question individually and in groups. Then, they had to organize a possible teaching, adapted to an institution well known to them .The written texts produced by the teachers are analysed by means of two types of techniques: one qualitative and one based on lexicometric statistical methods. In the long term, the aim of this research is to understand the potential and difficulties of in-service teachers to organize teaching based on questions.Keywords: Teachers training; Study and research pathsRésuméNous analysons l'étude et la recherche menées par N = 31 enseignants en service lors d'un cours en ligne sur la didactique des mathématiques, autour d'une question qui pourrait générer un PER. Les enseignants étudient la question individuellement et en groupe, puis il est proposé d'organiser un possible enseignement adapté à une institution bien connue par les enseignants, sur la base de la question étudiée. Les textes écrits produits par les enseignants sont analysés en utilisant deux types de techniques: une qualitative et l'autre basée sur des méthodes statistiques lexico métriques. Dans le long terme, cette recherche essaie de comprendre le potentiel et les difficultés des enseignants pendant l'organisation d'un enseignement basé sur des questions.Mots clés: Formation des enseignants; Parcours d'études et de recherche.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
4

Otero, Maria Rita, Viviana Carolina Llanos und Veronica Parra. „Training in-service teachers: study of questions and the organization of teachingFormation des enseignants en service: étude des questions et organisation de l'enseignement“. Educação Matemática Pesquisa : Revista do Programa de Estudos Pós-Graduados em Educação Matemática 22, Nr. 4 (15.09.2020): 742–55. http://dx.doi.org/10.23925/1983-3156.2020v22i4p742-755.

Der volle Inhalt der Quelle
Annotation:
AbstractWe analyse the study and research carried out by N = 31 teachers in service during an on-line course in Didactics of Mathematics, about a question that could generate a Study and research path (SRP). The teachers studied the question individually and in groups. Then, they had to organize a possible teaching, adapted to an institution well known to them .The written texts produced by the teachers are analysed by means of two types of techniques: one qualitative and one based on lexicometric statistical methods. In the long term, the aim of this research is to understand the potential and difficulties of in-service teachers to organize teaching based on questions.Keywords: Teachers training; Study and research pathsRésuméNous analysons l'étude et la recherche menées par N = 31 enseignants en service lors d'un cours en ligne sur la didactique des mathématiques, autour d'une question qui pourrait générer un PER. Les enseignants étudient la question individuellement et en groupe, puis il est proposé d'organiser un possible enseignement adapté à une institution bien connue par les enseignants, sur la base de la question étudiée. Les textes écrits produits par les enseignants sont analysés en utilisant deux types de techniques: une qualitative et l'autre basée sur des méthodes statistiques lexico métriques. Dans le long terme, cette recherche essaie de comprendre le potentiel et les difficultés des enseignants pendant l'organisation d'un enseignement basé sur des questions.Mots clés: Formation des enseignants; Parcours d'études et de recherche.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
5

Humbert, Philippe N. „Quantifier la langue française du Nord au Sud : un acte et un outil de neutralisation des tensions“. Revista de Llengua i Dret, Nr. 80 (13.12.2023): 63–80. http://dx.doi.org/10.58992/rld.i80.2023.4000.

Der volle Inhalt der Quelle
Annotation:
Cet article retrace les discours qui légitiment la création et le développement des deux principales institutions actives dans le processus de quantification de la langue française dans le monde : l’Observatoire de la langue française (« l’Observatoire ») et l’Observatoire démographique et statistique de l’espace francophone (ODSEF). L’objectif de l’article est de comprendre d’où viennent ces discours et comment ils orientent les actions de ces institutions pour mener à bien une mission commune : produire des statistiques sur la langue française dans le monde. Adoptant une démarche sociolinguistique critique, l’analyse historiographique porte sur des documents produits par les deux institutions à partir des années 2000. Il s’agit principalement de rapports d’analyses ou de méthodes, de publications tantôt académiques et techniques, tantôt encyclopédiques et « tout public ». L’analyse s’attarde sur les discours qui tendent à forger le caractère « objectif » de la quantification de la langue française. L’étude met en évidence que la construction de cette objectivité repose sur des arguments à la fois politiques et scientifiques qui émanent non seulement des missions et principes de l’OIF (Organisation internationale de la Francophonie), mais aussi d’autres organisations internationales telles que l’ONU et l’UNESCO. L’identification d’une diversité d’intérêts et l’analyse de leur mise en discours permettent d’observer comment certaines tensions politiques et scientifiques se voient neutralisées à l’aide d’arguments focalisant l’attention sur une quête d’objectivité dans la production de chiffres sur la langue française.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
6

Guiet-Silvain, Jeanne. „La construction en actes du sujet : l’exemple de la division“. Revista Electrónica de Investigación en Educación en Ciencias 18, Nr. 1 (18.07.2023). http://dx.doi.org/10.54343/reiec.v18i1.387.

Der volle Inhalt der Quelle
Annotation:
A partir d’une recherche dans le cadre de ma thèse sous la direction de Gérard Vergnaud (1994), nous avions noté au début de mes observations, des différences et des ressemblances dans l’exécution de la division chez des élèves de fin d’école élémentaire et du début du collège. Mes analyses ont alors décrit et expliqué leur organisation cognitive grâce à des méthodes statistiques, rendant compte de stratégies comportementales, sur lesquelles se manifestent les conceptions et les pertinences accordées aux situations par le sujet. Certains processus de modélisation, ici étudiés, font appel aux analyses implicatives et à celles des similarités qui permettent, en effet, d’identifier des conceptions cohérentes individuelles et collectives au niveau des groupes étudiés. Nous insisterons ici sur la portée théorique majeure de la notion de schème de Gérard Vergnaud, s’appuyant ici sur des travaux statistiques exprimant en partie l’organisation cognitive du sujet.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
7

Philippe, Jean-Robert. „L’IA, un outil de diagnostic pour le contrôle en ligne par radiographie industrielle“. e-journal of nondestructive testing 28, Nr. 9 (September 2023). http://dx.doi.org/10.58286/28480.

Der volle Inhalt der Quelle
Annotation:
L'intelligence artificielle (IA) est de plus en plus utilisée pour le diagnostic en ligne dans le domaine de la radiographie industrielle. Les avancées dans les algorithmes de classification et de segmentation sémantique ces dernières années constituent des outils qui permettent une détection plus précise des détails dans les images radiographiques, ce qui constitue une avancée majeure par rapports aux algorithmes traditionnels à base de traitements d’images « classiques » ou méthodes statistiques. Nous présentons ici 3 approches IA en radiographie industrielle, développées à des fins de diagnostic pour du contrôle sur ligne de production. ▪ La première approche, basée sur la classification, consiste à élaborer et entrainer un réseau de neurones de type CNN pour un établir un diagnostic qualité sur ligne de production sur image radiographique. Les images d’acquisition radiographique dont il est question ici sont des images acquises au moyen d’un capteur matriciel (projection conique). ▪ Les deux autres approches traitent du contrôle radiographique industriel sur ligne de production acquises au moyen d’un capteur linéaire (donc géométrie de projection semi-conique). ▪ La première de ces deux approches consiste à apprendre à un modèle de type Variational Autoencoder un pattern de « normalité », de la structure du matériau analysé, permettant ainsi de s’affranchir de l’apprentissage des défauts. ▪ La deuxième de ces deux approches consiste par des moyens de segmentation sémantique à détecter des défauts sur un produit à sur l’image. Le modèle ainsi conçu et entrainé, consiste en une segmentation sémantique à 5 sorties (4 classes de défauts et le background).
APA, Harvard, Vancouver, ISO und andere Zitierweisen
8

Pensieroso, Luca, und Michel De Vroey. „Focus 25 - juin 2020“. Regards économiques, 16.07.2020. http://dx.doi.org/10.14428/regardseco2020.06.04.01.

Der volle Inhalt der Quelle
Annotation:
En décembre 2019, les membres de Rethinking Economics Belgium (dorénavant REB) ont diffusé un rapport intitulé “Dix ans après la crise, faut-il changer la formation des futurs économistes ?”. Ce rapport présente les résultats d’une enquête statistique réalisée auprès d’un échantillon d’étudiants bacheliers en sciences économiques en Fédération Wallonie-Bruxelles entre 2016 et 2017. Ses auteurs y déplorent que l’enseignement des sciences économiques est presque exclusivement centré sur l'approche néoclassique alors que celle-ci, selon eux, souffre d'un biais en faveur de l'idéologie néolibérale. Stigmatisant cette situation comme un manque de pluralisme, le rapport avance un certain nombre de propositions de réforme de l’enseignement et de la recherche en économie. Nous accueillons ce rapport comme une belle opportunité de disputatio et c'est dans cet esprit que notre note a été écrite. Bien que selon nous le rapport comporte plusieurs défauts méthodologiques, notre intention dans cette note est de nous limiter à l’essentiel en proposant une interprétation différente du phénomène que les auteurs du rapport appellent la «domination de la théorie néoclassique» et en défendant l’idée que la question du pluralisme en économie gagne à être abordée d’une manière différente. Une domination néoclassique ? L’approche néoclassique est un courant de la pensée économique qui vit le jour dans le dernier quart du 19ème siècle. Ses piliers sont la notion d'équilibre et la théorie subjective de la valeur, enracinée dans une perspective d'individualisme méthodologique et fondée sur les concepts d’utilité marginale et de productivité marginale*. Les auteurs du document de REB rattachent sa “domination” dans l’enseignement au fait qu’elle existe “quasiment sans partage” dans la recherche. En d’autres termes, elle y occupe le statut de “mainstream”. La notion de mainstream se rencontre fréquemment dans la littérature économique – ainsi que dans le rapport de REB – mais elle est souvent définie d’une manière vague. Dans un article récent (De Vroey et Pensieroso 2020), nous avançons la thèse que cette notion n’est intéressante que si on lui donne un fondement méthodologique au lieu de se contenter de la rattacher à une simple prépondérance statistique. Dans cette vue, une situation de mainstream n’existe que si un consensus s’établit sur des critères méthodologiques considérés comme des sine qua non pour une bonne pratique scientifique. Dans notre article, nous montrons que trois types de situations se sont succédés au cours du 20ème siècle. La première est un état d’absence de mainstream. Elle a perduré jusque dans les années 1980. Ces dernières ont vu l’émergence d’un mainstream en économie théorique, qu’il s’agisse de travaux de pure théorie ou de travaux combinant théorie et mesure empirique. C’est la seconde situation. Elle a émergé à la croisée de deux évolutions distinctes. La première est l’extension à différents champs de l’économie de trois principes méthodologiques déjà en vigueur en théorie des jeux et en microéconomie: (i) le rôle-pivot donné au concept d’équilibre, (ii) la modélisation mathématique et (iii) le caractère micro-fondé de l’analyse, à savoir l’exigence que les fonctions de demande et offre agrégées soient explicitement dérivées des règles de comportement optimisateur suivies par les agents économiques. Une telle extension s’est produite plus ou moins simultanément et d’une manière non-coordonnée dans différentes disciplines comme par exemple la macroéconomie et l’économe industrielle. A son origine, on trouve une insatisfaction quant aux principes méthodologiques en vigueur antérieurement. La seconde évolution est le phénomène général de certification qui a graduellement imprégné nos sociétés pour prendre son plein essor avec l’émergence de l’internet – l’attribution de brevets de qualité et la construction d’échelles appréciatives permettant de classer des objets ou des expériences diverses en fonction de leur excellence. Dans ce contexte, les revues scientifiques, en plus de leur rôle d’instrument de diffusion de la recherche, ont commencé à fonctionner comme organes de certification, séparant les articles respectant les standards méthodologiques de ceux qui ne les respectent pas et sont dès lors écartés. L’effet de cette double transformation se résume en quelques chiffres ayant trait au contenu des articles publiés dans les quatre principales revues économiques (American Economic Review, Econometrica, Journal of Political Economy et Quarterly Journal of Economics) dans les périodes 1970-1990 et 1990-2010. Alors que les articles respectant les trois choix méthodologiques précités représentaient 38 % du total des articles publiés en 1970, en 1990 ils en représentaient 67 % et en 2010 69 %. Nous interprétons ces chiffres comme offrant une indication claire de l’émergence d’un mainstream dans le champ théorique entre 1970 et 1990. Par contre durant cette période, aucun consensus méthodologique n’existait en ce qui concernait les travaux faisant une contribution exclusivement empirique, l’économie appliquée. Mais ce qui n’était pas vrai en 1990 l’est devenu au cours de la première décennie de ce siècle. La situation actuelle se caractérise par la montée en puissance de l’‘économie expérimentale’, ce terme étant entendu dans un sens large comme le commun dénominateur (i) des expériences comportementales de laboratoire, (ii) des randomized controlled trial et (iii) des ‘expériences naturelles’.** Le premier de ces courants résulte de l’adoption par un groupe d’économistes de protocoles expérimentaux propres aux psychologues cognitifs dans le but de justifier le remplacement de l’hypothèse de comportement optimisateur par des hypothèses plus réalistes. Le succès venant, cette démarche est maintenant connue sous le nom d’‘économie comportementale’. Le second découle de l’adoption par des économistes du développement de techniques expérimentales en usage en épidémiologie et centrées sur une confrontation entre groupe de traitement et de groupe de contrôle (cfr. Parienté 2016). Quant aux études d’expériences naturelles, elles consistent à exploiter «des situations où les forces de la nature ou des politiques étatiques semblent avoir conspiré pour produire un environnement proche de celui sur lequel les randomized trials se penchent» (Angrist and Krueger 2001 : 73). Les méthodes adoptées en économie expérimentale au sens large ont eu un impact majeur sur l’économie appliquée. Une nouvelle manière de la concevoir, marquant une triple rupture par rapport à l’économie appliquée traditionnelle, s’est dégagée. On y observe :i) Une émancipation à l’égard des impératifs méthodologiques imposés par les économètres théoriques. Le recours à des outils économétriques plus simples en est la conséquence (cfr. Angrist et Peschke 2017).ii) Une adhésion à la ‘révolution causale’ avec, comme corolaire, un résultat de rétrécissement de l’objet d’étude. L’explanandum est une question concrète et spécifique ayant souvent une incidence politique immédiate; l’explanans est une cause unique. A titre d’exemple, citons l’étude de Dal et Krueger (2002) visant à répondre la question, le fait d’être diplômé d’une université prestigieuse au minerval élevé plutôt que d’une université moins prestigieuse et moins chère génère-t-il une différence de revenu significative une vingtaine d’année après l’obtention du diplôme ?iii) Le recours à des instruments statistiques - telles que les variables instrumentales, la stratégie de double différence ou les discontinuités de régression - visant à éliminer les biais de sélection ou d’omissions et dont les règles de bon usage font l’objet d’un consensus à l’intérieur de la communauté des économistes appliqués. Le mainstream théorique se voit ainsi complété par un mainstream empirique fondé sur des règles méthodologiques régissant chacune de trois composantes de l’économie expérimentale. De nos jours, il y a donc deux manières d’appartenir au mainstream. La première résulte d’une définition méthodologique de ce qui est considéré être une bonne pratique théorique, la seconde d’une définition méthodologique de ce qui est considéré être une bonne pratique empirique. Notre analyse sur le débat ouvert par le rapport REB a deux retombées. En premier lieu, on peut se demander si mainstream et approche néoclassique coïncident. A strictement parler, cela n’est pas le cas. D’abord, la théorie des jeux est une composante du mainstream qui ne peut être identifiée à l’approche néoclassique. Ensuite, il y a des travaux néoclassiques qui se trouvent être exclus du mainstream - la théorie autrichienne, parce qu’elle n’adopte pas le langage mathématique, et les études néoclassiques qui n’adoptent pas la démarche de micro-fondements. Enfin, en 2010, la part du mainstream empirique dans le total des deux mainstreams représentait 22 %. Or, par définition, aucun des articles qui en font partie n’appartient à l’approche néoclassique. Le tableau contemporain est donc bien plus riche et varié que ce qui est dépeint dans le rapport REB. La seconde question qui se pose du fait de l’existence d’un mainstream en économie porte sur l’interprétation de cette réalité. Il est clair que les tenants des approches écartées se sentent frustrés d’être exclus du mainstream avec toutes les conséquences professionnelles qui en découlent. Ils auront donc tendance à voir cette situation comme une régression par rapport à une situation antérieure plus satisfaisante car marquée du sceau du pluralisme. Par contre, les économistes dont les travaux s’inscrivent à l’intérieur des critères définissant le mainstream peuvent avancer l’idée que l’unification de la discipline autour de critères méthodologiques clairs et nets est un signe de progrès. En conséquence, la question de savoir si l’existence d’un mainstream est une régression ou la marque d’un progrès ne peut recevoir de réponse univoque. Une absence de pluralisme ? Trois stratégies s’offrent aux tenants de choix méthodologiques exclus du mainstream. La première (et la plus intéressante à nos yeux) est de centrer leur énergie sur le développement de leur paradigme préféré, comme si de rien n’était, dans le but d’en démontrer la fécondité explicative. La seconde vise à convaincre les tenants du mainstream que les choix de base sur lesquels ils reposent sont inadéquats. A notre avis, les chances de succès de cette seconde stratégie sont minimes si, comme nous le pensons, les révolutions théoriques trouvent en général leurs origines dans des faiblesses mises en avant par une critique interne. La troisième consiste à affirmer que l’existence même d’un mainstream est condamnable parce qu’il s’agit d’un manque de pluralisme. Comme ce point de vue occupe une place centrale dans le document REB, il mérite d’être passé au crible. A nos yeux, la justification qui en est donnée n’est pas convaincante. Le fait que l’exigence de pluralisme est d’une importance primordiale dans le domaine de la démocratie politique et de l’information n’implique pas que ceci soit aussi le cas pour la connaissance scientifique. Comme nous l’avons déjà évoqué plus haut, une unification paradigmatique peut être interprétée comme une marque de progrès. Il reste qu’en économie, peut-être plus que dans d’autres sciences, la question du pluralisme doit être posée. Mais, à nos yeux, elle doit l’être dans d’autres termes. Depuis Adam Smith jusqu’à nos jours, les économistes ont débattu de la meilleure manière d’organiser la société dans sa dimension économique. L’objet d’étude de la science économique est donc éminemment politique. D’ailleurs, les travaux économiques débouchent souvent, sinon toujours, sur des conclusions de politique économique. L’enjeu sous-jacent porte sur le rôle respectif de l’Etat et des forces de marchés dans le fonctionnement de l’économie. Schématiquement, trois visions du capitalisme sont en présence : une vision pleinement libérale (le laissez faire d’Hayek ou de Friedman), une vision marxiste et une vision que l’on peut qualifier de «libéralisme mitigé» ou de «libéralisme raisonné». Cette dernière, associée notamment au nom de Keynes, consiste en une défense de l’économie de marché allant de pair avec la réalisation qu’elle peut rencontrer des échecs de fonctionnement auxquels seules des interventions étatiques sont à même de remédier. L’accusation de manque de pluralisme serait pertinente s’il s’avérait que le mainstream théorique, tel que nous l’avons cerné dans la section précédente, est intrinsèquement partisan d’une seule vision, le plein libéralisme par exemple. Dans un article, publié dans les Regards Économiques en 2018, nous avons démontré que cela n’est pas le cas en nous centrant sur trois épisodes de l’histoire des théories économiques - une comparaison du cadre conceptuel de Marx et des économistes classiques, l’utilisation de la théorie walrasienne pour justifier le socialisme et les controverses entre keynésiens et monétaristes. Dans cette perspective, tant la théorie classique que la théorie néoclassique sont un langage qui peut être mis au service de visions du capitalisme différentes. L’existence d’un mainstream en économie n’est donc pas synonyme d’un manque de pluralisme en économie. * Cfr. De Vroey et Pensieroso (2018) pour plus de détails.** En témoignent les prix Nobel en économie décernés à D. Kahneman et V. Smith en 2002, à A. Roth en 2012, à R. Shiller en 2013, à R. Thaler en 2017 et à A. Banerjee, E. Duflo and M. Kremer en 2019. Références: Angrist, J. and A. Krueger (2001), “Instrumental Variables and the Search for Identification: From Supply and Demand to Natural Experiments.” Journal of Economic Perspectives. 15, No. 4 : 69-85. Angrist, J. and J-S. Pischke. 2009. Mostly Harmless Econometrics. An Empiricist's Companion. Princeton (N. J.) and Oxford, Princeton University Press. Dale, S. and Al Krueger. 2002. “Estimating the Payoff to Attending a More Selective College: An Application of Selection on Observables and Unobservables.” Quarterly Journal of Economics 117: 1491–1527. De Vroey M. et L. Pensieroso (2020), “Mainstream Economics. Its Rise and Evolution”, mimeo. De Vroey M. et L. Pensieroso (2018), “La question du pluralisme en économie. Une mise en perspective”, Regards Économiques, numéro 137. Parienté W. (2016), “Mesurer l'effet des politiques publiques : l'essor des évaluations aléatoires”, Regards Économiques, numéro 124. Rethinking Economics Belgium (2019), 10 ans après la crise : faut-il changer la formation des futur·e·s économistes ?
APA, Harvard, Vancouver, ISO und andere Zitierweisen

Dissertationen zum Thema "Organisation industrielle – Méthodes statistiques"

1

Eisfeld, Luise. „Dissertation sur l'organisation industrielle empirique et l'économie de la numérisation“. Electronic Thesis or Diss., Toulouse 1, 2023. http://www.theses.fr/2023TOU10013.

Der volle Inhalt der Quelle
Annotation:
Cette thèse examine des questions liées à la concurrence entre entreprises dans le contexte de l'adoption de nouvelles technologies, avec un accent particulier sur la numérisation. La baisse des coûts de stockage, d'accès et de distribution de l'information résultant de la numérisation a affecté les dynamiques de marché et influencé les résultats économiques. À travers des analyses empiriques, les chapitres de cette thèse cherchent à comprendre et évaluer les phénomènes économiques associés à la numérisation. Au chapitre 1, je me concentre sur un sujet très débattu dans les cercles de politique antitrust en éclairant les acquisitions de startups dans l'industrie des logiciels. Étant donné les économies d'échelle et de champ substantielles dans les marchés des logiciels, la principale force concurrentielle dans ces marchés est censée provenir de nouveaux entrants innovants. Par conséquent, j'examine les incitations des startups jeunes et financées par du capital-risque à entrer sur le marché à la lumière des nombreuses acquisitions qui ont lieu. Mes contributions résident dans (1) la collecte et l'assemblage de nouvelles données qui permettent d'identifier les entreprises concurrentes ; (2) la production de faits nouveaux et pertinents pour les politiques sur les acquisitions de startups dans les marchés des logiciels ; et (3) la construction et l'estimation d'un modèle structurel dynamique stylisé de l'entrée de startup. Mes résultats suggèrent que les acquisitions peuvent, en général, stimuler les incitations à de nouvelles entrées innovantes. D'un autre côté, certains types d'acquisitions, en particulier celles visant des startups très matures et réalisées à des prix élevés, sont suivies par moins d'entrants, soulignant l'importance de l'examen des fusions antitrust au cas par cas. La baisse des coûts de distribution de l'information a conféré aux plateformes en ligne le rôle de "gardien de la porte" qui contrôle l'information que les utilisateurs finaux voient. Le chapitre 2 se concentre donc sur la conception des plateformes, en particulier les algorithmes qui classent les produits répertoriés sur les sites de commerce électronique. En examinant les classements et les comportements de tarification sur un agent de réservation d'hôtel en ligne, je constate que l'algorithme de classement utilisé par cette plateforme a tendance à intensifier la concurrence des prix entre les hôtels en classant les hôtels de manière plus visible aux moments où leurs prix sont plus bas. En estimant un modèle de recherche des consommateurs et en simulant les résultats du marché sous des classements contrefactuels, je montre que les consommateurs feraient face à des prix légèrement plus élevés si l'algorithme de classement fonctionnait différemment, ce qui entraînerait des pertes de surplus des consommateurs. Dans l'ensemble, le chapitre met en évidence l'impact significatif des plateformes en ligne sur la concurrence au sein des industries. Comme la numérisation a entraîné une augmentation de la quantité de données collectées sur les individus, de nombreuses juridictions ont promulgué une réglementation visant à protéger les données personnelles des citoyens. Le chapitre 3 explore les effets d'une telle réglementation sur la protection des données personnelles sur les acquisitions de start-ups. En particulier, je me concentre sur les conséquences involontaires du règlement général sur la protection des données (RGPD) mis en place en 2018 dans l'Union européenne. Des éléments de preuve anecdotiques motivants suggèrent que le RGPD a pu augmenter la charge lors de la due diligence ainsi que le risque de réaliser une acquisition. En analysant les acquisitions de start-ups réalisées entre 2014 et 2019, je constate que le nombre d'acquisitions de start-ups européennes financées par des sociétés de capital-risque a effectivement diminué après l'entrée en vigueur du RGPD par rapport aux start-ups basées aux États-Unis ou dans d'autres pays non européens
This thesis investigates questions related to the competition between firms in the context of the adoption of new technologies, with a particular focus on digitization. The decreasing costs of storing, accessing, and distributing information resulting from digitization have affected market dynamics and influenced economic outcomes. Through empirical analyses, the chapters in this thesis seek to comprehend and evaluate the economic phenomena associated with digitization.In Chapter 1, I focus on a topic that is highly debated in antitrust policy circles by shedding new light on startup acquisitions in the software industry. Given the substantial economies of scale and scope in software markets, the main competitive force in these markets is believed to come from new, innovative entrants. Therefore, I examine the incentives of young, Venture Capital-funded startups to enter the market in light of the numerous acquisitions that have been taking place. My contributions lie in (1) collecting and assembling new data that enable to identify competing firms; (2) in producing new, policy-relevant facts on startup acquisitions in software markets; and (3) in building and estimating a stylized dynamic structural model of startup entry. My findings suggest that acquisitions can, in general ,spur the incentives for new, innovative entry. On the other hand, certain types of acquisitions, particularly those targeting very mature startups and conducted at high prices, are followed by fewer entrants, underscoring the importance of antitrust review of mergers on a case-by-case basis.The decline in the costs of distributing information has given online platforms the role of “gatekeepers” that control what information users ultimately view. Chapter 2 therefore focuses on platform design, specifically the algorithms that rank listed products on e-commerce websites. By examining rankings and pricing behavior of hotels on an online travel agent, I find that the ranking algorithm used by this platform tends to intensify price competition between hotels by displaying hotels more visibly at times at which they are priced lower. By estimating a model of consumer search and simulating market outcomes under counterfactual rankings, I show that consumers would face somewhat higher prices if the ranking algorithm worked differently, leading to losses in consumer surplus. Overall, the chapter highlights the significant impact online platforms have on competition within industries.As digitization has led to an increase in the amount of data collected on individuals, many jurisdictions have enacted privacy regulation targeted at protecting citizens’ personal data. Chapter 3 explores the effects of such privacy regulation on startup acquisitions. In particular, I focus on unintended consequences of the General Data Protection Regulation (GDPR) implemented in 2018 in the European Union. Motivating anecdotal evidence suggests that the GDPR may have increased the burden during due diligence as well as the risk of conducting an acquisition. Analyzing acquisitions of startups conducted between 2014 and 2019, I find that the number of acquisitions of VC-funded European startups has indeed declined after enactment of the GDPR compared to startups based in the US or other non-European countries
APA, Harvard, Vancouver, ISO und andere Zitierweisen
2

Archimbaud, Aurore. „Méthodes statistiques de détection d’observations atypiques pour des données en grande dimension“. Thesis, Toulouse 1, 2018. http://www.theses.fr/2018TOU10001/document.

Der volle Inhalt der Quelle
Annotation:
La détection d’observations atypiques de manière non-supervisée est un enjeu crucial dans la pratique de la statistique. Dans le domaine de la détection de défauts industriels, cette tâche est d’une importance capitale pour assurer une production de haute qualité. Avec l’accroissement exponentiel du nombre de mesures effectuées sur les composants électroniques, la problématique de la grande dimension se pose lors de la recherche d’anomalies. Pour relever ce challenge, l’entreprise ippon innovation, spécialiste en statistique industrielle et détection d’anomalies, s’est associée au laboratoire de recherche TSE-R en finançant ce travail de thèse. Le premier chapitre commence par présenter le contexte du contrôle de qualité et les différentes procédures déjà mises en place, principalement dans les entreprises de semi-conducteurs pour l’automobile. Comme ces pratiques ne répondent pas aux nouvelles attentes requises par le traitement de données en grande dimension, d’autres solutions doivent être envisagées. La suite du chapitre résume l’ensemble des méthodes multivariées et non supervisées de détection d’observations atypiques existantes, en insistant tout particulièrement sur celles qui gèrent des données en grande dimension. Le Chapitre 2 montre théoriquement que la très connue distance de Mahalanobis n’est pas adaptée à la détection d’anomalies si celles-ci sont contenues dans un sous-espace de petite dimension alors que le nombre de variables est grand.Dans ce contexte, la méthode Invariant Coordinate Selection (ICS) est alors introduite comme une alternative intéressante à la mise en évidence de la structure des données atypiques. Une méthodologie pour sélectionner seulement les composantes d’intérêt est proposée et ses performances sont comparées aux standards habituels sur des simulations ainsi que sur des exemples réels industriels. Cette nouvelle procédure a été mise en oeuvre dans un package R, ICSOutlier, présenté dans le Chapitre 3 ainsi que dans une application R shiny (package ICSShiny) qui rend son utilisation plus simple et plus attractive.Une des conséquences directes de l’augmentation du nombre de dimensions est la singularité des estimateurs de dispersion multivariés, dès que certaines variables sont colinéaires ou que leur nombre excède le nombre d’individus. Or, la définition d’ICS par Tyler et al. (2009) se base sur des estimateurs de dispersion définis positifs. Le Chapitre 4 envisage différentes pistes pour adapter le critère d’ICS et investigue de manière théorique les propriétés de chacune des propositions présentées. La question de l’affine invariance de la méthode est en particulier étudiée. Enfin le dernier chapitre, se consacre à l’algorithme développé pour l’entreprise. Bien que cet algorithme soit confidentiel, le chapitre donne les idées générales et précise les challenges relevés, notamment numériques
The unsupervised outlier detection is a crucial issue in statistics. More specifically, in the industrial context of fault detection, this task is of great importance for ensuring a high quality production. With the exponential increase in the number of measurements on electronic components, the concern of high dimensional data arises in the identification of outlying observations. The ippon innovation company, an expert in industrial statistics and anomaly detection, wanted to deal with this new situation. So, it collaborated with the TSE-R research laboratory by financing this thesis work. The first chapter presents the quality control context and the different procedures mainly used in the automotive industry of semiconductors. However, these practices do not meet the new expectations required in dealing with high dimensional data, so other solutions need to be considered. The remainder of the chapter summarizes unsupervised multivariate methods for outlier detection, with a particular emphasis on those dealing with high dimensional data. Chapter 2 demonstrates that the well-known Mahalanobis distance presents some difficulties to detect the outlying observations that lie in a smaller subspace while the number of variables is large. In this context, the Invariant Coordinate Selection (ICS) method is introduced as an interesting alternative for highlighting the structure of outlierness. A methodology for selecting only the relevant components is proposed. A simulation study provides a comparison with benchmark methods. The performance of our proposal is also evaluated on real industrial data sets. This new procedure has been implemented in an R package, ICSOutlier, presented in Chapter 3, and in an R shiny application (package ICSShiny) that makes it more user-friendly. When the number of dimensions increases, the multivariate scatter matrices turn out to be singular as soon as some variables are collinear or if their number exceeds the number of individuals. However, in the presentation of ICS by Tyler et al. (2009), the scatter estimators are defined as positive definite matrices. Chapter 4 proposes three different ways for adapting the ICS method to singular scatter matrices and theoretically investigates their properties. The question of affine invariance is analyzed in particular. Finally, the last chapter is dedicated to the algorithm developed for the company. Although the algorithm is confidential, the chapter presents the main ideas and the challenges, mostly numerical, encountered during its development
APA, Harvard, Vancouver, ISO und andere Zitierweisen
3

Oger, Julie. „Méthodes probabilistes pour l'évaluation de risques en production industrielle“. Phd thesis, Université François Rabelais - Tours, 2014. http://tel.archives-ouvertes.fr/tel-00982740.

Der volle Inhalt der Quelle
Annotation:
Dans un contexte industriel compétitif, une prévision fiable du rendement est une information primordiale pour déterminer avec précision les coûts de production et donc assurer la rentabilité d'un projet. La quantification des risques en amont du démarrage d'un processus de fabrication permet des prises de décision efficaces. Durant la phase de conception d'un produit, les efforts de développement peuvent être alors identifiés et ordonnés par priorité. Afin de mesurer l'impact des fluctuations des procédés industriels sur les performances d'un produit donné, la construction de la probabilité du risque défaillance est développée dans cette thèse. La relation complexe entre le processus de fabrication et le produit conçu (non linéaire, caractéristiques multi-modales...) est assurée par une méthode de régression bayésienne. Un champ aléatoire représente ainsi, pour chaque configuration du produit, l'information disponible concernant la probabilité de défaillance. Après une présentation du modèle gaussien, nous décrivons un raisonnement bayésien évitant le choix a priori des paramètres de position et d'échelle. Dans notre modèle, le mélange gaussien a priori, conditionné par des données mesurées (ou calculées), conduit à un posterior caractérisé par une distribution de Student multivariée. La nature probabiliste du modèle est alors exploitée pour construire une probabilité de risque de défaillance, définie comme une variable aléatoire. Pour ce faire, notre approche consiste à considérer comme aléatoire toutes les données inconnues, inaccessibles ou fluctuantes. Afin de propager les incertitudes, une approche basée sur les ensembles flous fournit un cadre approprié pour la mise en oeuvre d'un modèle bayésien imitant le raisonnement d'expert. L'idée sous-jacente est d'ajouter un minimum d'information a priori dans le modèle du risque de défaillance. Notre méthodologie a été mise en oeuvre dans un logiciel nommé GoNoGo. La pertinence de cette approche est illustrée par des exemples théoriques ainsi que sur un exemple réel provenant de la société STMicroelectronics.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
4

Lesellier, Max. „Articles en microéconométrie structurelle“. Electronic Thesis or Diss., Toulouse 1, 2023. http://www.theses.fr/2023TOU10016.

Der volle Inhalt der Quelle
Annotation:
Dans cette thèse, je développe de nouvelles méthodes économétriques pour tester et relaxer les restrictions statistiques ou d'équilibre couramment supposées dans des modèles populaires d'organisation industrielle, tels que le modèle logit à coefficients aléatoires, les jeux d'entrée et les contrats optimaux. J'applique ensuite ces méthodes pour étudier comment les hypothèses habituelles affectent les résultats obtenus dans plusieurs exemples empiriques pertinents. Cette thèse contient trois chapitres.Le premier chapitre de ma thèse s'intitule "Tester et relaxer les hypothèses de distribution sur les coefficients aléatoires dans le modèle de demande ". Ce chapitre est co-écrit avec deux autres doctorants, Hippolyte Boucher et Gökçe Gökkoca. Nous proposons une méthode pour tester et relaxer les hypothèses de distribution sur les coefficients aléatoires dans le modèle de demande de produits différenciés initié par Berry (1994) et Berry, Levinsohn et Pakes (1995). Il s'agit du modèle de référence pour l'estimation de la demande avec des données agrégées de marché. Les coefficients aléatoires modélisent l'hétérogénéité des préférences non observées. Dans ce chapitre, nous proposons un test de spécification sur la distribution des coefficients aléatoires, qui permet aux chercheurs de tester la spécification choisie (par exemple la normalité) sans ré-estimer le modèle sous une paramétrisation plus flexible. Les moments sont choisis pour maximiser la puissance du test lorsque la distribution des coefficients aléatoires est mal spécifiée. En exploitant la dualité entre l'estimation et le test, nous montrons que ces instruments peuvent également améliorer l'estimation du modèle BLP sous une paramétrisation flexible. Enfin, nous validons notre approche avec des simulations de Monte Carlo et une application empirique sur le marché des voitures en Allemagne.Le deuxième chapitre s'intitule "Inégalités de Moment pour les Jeux d'Entrée avec Types Hétérogènes". Ce chapitre a été co-écrit avec Christian Bontemps et Rohit Kumar. Nous développons de nouvelles méthodes pour simplifier l'estimation des jeux d'entrée lorsque le mécanisme de sélection d'équilibre est non restreint. En particulier, nous développons un algorithme qui nous permet de sélectionner de manière récursive un sous-ensemble d'inégalités qui caractérisent de manière minimale l'ensemble des paramètres admissibles. Ensuite, nous proposons une procédure inférentielle compétitive en lissant la fonction minimum. Cela nous permet d'obtenir une statistique de test pivotale qui élimine "numériquement" les moments non saturés. Nous montrons que nous récupérons une région de confiance convergente en laissant le paramètre de lissage augmenter avec la taille de l'échantillon. Aussi, notre procédure peut facilement être adaptée au cas avec covariables, y compris continues. Enfin, nous menons des simulations de Monte Carlo pour évaluer les performances de notre nouvelle procédure d'estimation.Le troisième chapitre s'intitule "Identification et Estimation des Contrats d'Incitation sous Information Asymétrique : une application au secteur de l'eau en France". Nous développons un modèle principal-agent pour représenter la sous-traitance de gestion pour la prestation de services publics. Une entreprise (l'agent) possède une connaissance privée de son coût marginal de production. L'autorité publique locale (le principal) se préoccupe du surplus net des consommateurs et du bénéfice de l'entreprise. La négociation contractuelle est modélisée comme le choix de l'entreprise informée de manière privée dans un menu d'options déterminant le prix unitaire facturé aux consommateurs et le montant fixe. Notre modèle théorique caractérise la sous-traitance optimale dans cet environnement. Nous étudions ensuite l'identification non paramétrique du modèle et effectuons une estimation semi-paramétrique sur des données provenant de l'enquête de l'Institut Français de l'Environnement de 2004
In this thesis, I develop new econometric methods to test and relax statistical or equilibrium restrictions that are commonly assumed in popular industrial organization models including the random coefficient logit model, entry games, and optimal contracts. I then apply these methods to investigate how the usual assumptions affect the results obtained in several pertinent empirical examples. This thesis is organized into three chapters.The first chapter of my thesis is entitled "Testing and Relaxing Distributional Assumptions on Random Coefficients in Demand Models''. This chapter is co-authored with two fellow graduate students Hippolyte Boucher and Gökçe Gökkoca. We provide a method to test and relax the distributional assumptions on random coefficients in the differentiated products demand model initiated by Berry (1994) and Berry, Levinsohn and Pakes (1995). This model is the workhorse model for demand estimation with market-level data and it uses random coefficients to account for unobserved preference heterogeneity. In this chapter, we provide a formal moment-based specification test on the distribution of random coefficients, which allows researchers to test the chosen specification (for instance normality) without re-estimating the model under a more flexible parametrization. The moment conditions (or equivalently the instruments) chosen for the test are designed to maximize the power of the test when the RC distribution is misspecified. By exploiting the duality between estimation and testing, we show that these instruments can also improve the estimation of the BLP model under a flexible parametrization (here, we consider the case of the Gaussian mixture). Finally, we validate our approach with Monte Carlo simulations and an empirical application using data on car purchases in Germany.The second chapter is entitled: "Moment Inequalities for Entry Games with HeterogeneousTypes". This chapter is coauthored with my advisor Christian Bontemps and Rohit Kumar.We develop new methods to simplify the estimation of entry games when the equilibrium selection mechanism is unrestricted. In particular, we develop an algorithm that allows us to recursively select a relevant subset of inequalities that sharply characterize the set of admissible set of parameters. Then, we propose a way to circumvent the problem of deriving an easy-to-compute and competitive critical value by smoothing the minimum function. In our case, it allows us to obtain a pivotal test statistic that eliminates ``numerically” the non-binding moments. We show that we recover a consistent confidence region by letting the smoothing parameter increase with the sample size. Interestingly, we show that our procedure can easily be adapted to the case with covariates including continuous ones. Finally, we conduct full-scale Monte Carlo simulations to assess the performance of our new estimation procedure.The third chapter is entitled "Identification and Estimation of Incentive Contracts under Asymmetric Information: an application to the French Water Sector". This chapter has its roots in a project Christian Bontemps and David Martimort started many years ago. We develop a Principal-Agent model to represent management contracting for public-service delivery. A firm (the Agent) has private knowledge of its marginal cost of production. The local public authority (the Principal) cares about the consumers' net surplus from consuming the services and the (weighted) firm's profit. Contractual negotiation is modeled as the choice by the privately informed firm within a menu of options determining both the unit-price charged to consumers and the fixed fee. Our theoretical model characterizes optimal contracting in this environment. We then explicitly study the nonparametric identification of the model and perform a semi-parametric estimation on a dataset coming from the 2004 wave of a survey from the French environment Institute
APA, Harvard, Vancouver, ISO und andere Zitierweisen
5

Benoumechiara, Nazih. „Traitement de la dépendance en analyse de sensibilité pour la fiabilité industrielle“. Thesis, Sorbonne université, 2019. http://www.theses.fr/2019SORUS047.

Der volle Inhalt der Quelle
Annotation:
Les études de fiabilité des structures ont recours à des approches probabilistes permettant de quantifier le risque qu'un événement accidentel se produise. La dépendance entre les variables aléatoires d'entrée d'un modèle peut avoir un impact significatif sur les résultats de l'étude de sureté. Cette thèse apporte une contribution au traitement de la dépendance en fiabilité des structures. Les deux principaux thèmes traités dans ce document sont, d'une part, l'analyse de sensibilité pour variables dépendantes lorsque la dépendance est connue et, d'autre part, l'évaluation d'un risque de fiabilité lorsque la dépendance est inconnue. Dans un premier temps, nous proposons une extension des mesures d'importance par permutation de l'algorithme des forêts aléatoires au cas de données dépendantes. Nous adaptons aussi l'algorithme d'estimation des indices de Shapley, utilisés en théorie des jeux, afin de prendre compte l'erreur d'estimation des indices. Dans un second temps, lorsque la structure de dépendance est inconnue, nous proposons une estimation conservative du risque de fiabilité basée sur une modélisation de la dépendance qui permet de déterminer la structure de dépendance la plus pénalisante. La méthodologie proposée est appliquée à un exemple de fiabilité structurelle permettant d'obtenir une estimation conservative du risque
Structural reliability studies use probabilistic approaches to quantify the risk of an accidental event occurring. The dependence between the random input variables of a model can have a significant impact on the results of the reliability study. This thesis contributes to the treatment of dependency in structural reliability studies. The two main topics covered in this document are the sensitivity analysis for dependent variables when the dependence is known and, as well as the assessment of a reliability risk when the dependence is unknown. First, we propose an extension of the permutation-based importance measures of the random forest algorithm towards the case of dependent data. We also adapt the Shapley index estimation algorithm, used in game theory, to take into account the index estimation error. Secondly, in the case of dependence structure being unknown, we propose a conservative estimate of the reliability risk based on dependency modelling to determine the most penalizing dependence structure. The proposed methodology is applied to an example of structural reliability to obtain a conservative estimate of the risk
APA, Harvard, Vancouver, ISO und andere Zitierweisen
6

Marques, Santos Anabela. „Public and private financing of innovation: Assessing constraints, selection process and firm performance“. Doctoral thesis, Universite Libre de Bruxelles, 2018. http://hdl.handle.net/2013/ULB-DIPOT:oai:dipot.ulb.ac.be:2013/277460.

Der volle Inhalt der Quelle
Annotation:
Using public support as the baseline, the aim of the Ph.D. thesis is firstly to assess its effectiveness in alleviating firms’ financing constraints (Chapter 2) and in enhancing the innovation-growth linkage (Chapter 5), in comparison with other financing sources. Secondly, the research undertaken also explores public policy effectiveness in two periods of time: ex-ante and ex-post analysis. In the former, effectiveness is assessed according to whether the characteristics of the project selected for the subsidy are in line with the policy targets (Chapter 3). In turn, the ex-post analysis assesses firms’ effectiveness in achieving the planned goal and the sustainability of the achieved outcomes (Chapter 4). Chapter 2 provides evidence that, in addition to a guarantee for loans, measures to facilitate equity investments and making existing public measures easier to obtain could be considered as the main solutions for future financing. Tax incentives for financially constrained firms are revealed to be the least important factor. Chapter 3 aims to understand which kinds of projects are selected for an innovation subsidy and if the characteristics of the project selected are in line with the policy target. The results show the selection process seems to be particularly effective in meeting the goals as regards the amount of investment, as well as the expected effect on enhanced internationalization and productivity. Nevertheless, the study also reveals some failures in the selection process, namely in terms of the intensity of the project’s contribution to growth. Chapter 4 assess firm performance after project implementation. Results show that subsidized firms reached targets linked with employment level and sales more easily than labour productivity and value creation. Chapter 5 reveals that equity financing has a greater effect on the strategic decision to innovate and the highest output additionality on firm turnover growth. Grants have a more moderate effect on innovation and firm growth (both turnover and employment).
Doctorat en Sciences économiques et de gestion
info:eu-repo/semantics/nonPublished
APA, Harvard, Vancouver, ISO und andere Zitierweisen
7

Borodin, Valeria. „Optimisation et simulation d'une chaîne logistique : application au secteur de l'agriculture“. Thesis, Troyes, 2014. http://www.theses.fr/2014TROY0034/document.

Der volle Inhalt der Quelle
Annotation:
Dans le cadre de la thèse portant sur l’optimisation et simulation de la chaîne logistique agricole, c'est l'activité de collecte qui est concernée, la période de moisson étant primordiale en matière de quantité et qualité de production, i.e. des revenus pour les agri-culteurs et des richesses pour le territoire. Plus spécifiquement, celle-ci implique les opérations de récolte, transport et stockage des céréales, réalisées par plusieurs exploitations agricoles, dispersées géographiquement. En vue d'aborder la complexité et la nature dyna-mique de la chaîne logistique d’une coopérative agricole française dans son intégralité, nous avons développé un système d'aide à la décision, qui s'inscrit dans la cadre de la recherche opérationnelle (RO) et plus précisément se réfère à l'optimisation linéaire, robuste et stochastique; la simulation de flux à évènements discrets; ainsi qu'à leur couplage. De plus, la synergie créée entre les outils de la RO, le système d’information géographique, la statistique inférentielle et prédictive rend le système d'aide à la décision compétitif et performant, capable de répondre convenablement au besoin de l’industriel
To overcome the new challenges facing agricultural sector, imposed by globalisation, changing market demands and price instability, the crop production supply chain must particularly be very reactive, flexible, with a high yield and at low cost. Its improving and eventual re-configuration can lead to an upgrade in efficiency, responsiveness, business integration and make it able to confront the market competitiveness. The thesis is thus placed in this particular context and aims to support decision making in crop harvesting activity, which is considered the pivotal stage in the cereal production circuit owing to its high cost and impact on the returns earned. Managing the harvest activity involves gathering, transportation and storage operations, performed by a collection of agricultural holdings geographically dispersed. Besides its practical relevance, this thesis forms part of the Operational Research (OR) and more specifically, refers to the linear and stochastic programming, discrete event simulation, and their coupling. In addition, the synergy created between OR, inferential and predictive statistics, geographical information system tools makes the decision support system competitive, efficient and responsive
APA, Harvard, Vancouver, ISO und andere Zitierweisen
8

Erlos, Frédéric. „Discours d'entreprise et organisation de l'information - Apports de la textométrie dans la construction de référentiels terminologiques adaptables au contexte“. Phd thesis, Université de la Sorbonne nouvelle - Paris III, 2009. http://tel.archives-ouvertes.fr/tel-00511829.

Der volle Inhalt der Quelle
Annotation:
L'organisation de l'information sur un intranet (réseau informatique interne d'une organisation fonctionnant avec les technologies d'Internet) nécessite de nouvelles approches pour traiter la question de l'adéquation entre l'arborescence des sites et les usages linguistiques de leurs publics. Une façon de prendre en compte ces usages consiste à explorer les données textuelles représentatives d'une situation de communication spécifique. Une telle exploration est effectuée à l'aide de techniques textométriques, comme l'index hiérarchique des formes, les concordances, les segments répétés, la carte des sections d'un texte, le calcul des co-occurrences et l'analyse factorielle des correspondances. On extrait alors d'un corpus de textes de communication d'entreprise (rapports d'activité) les unités lexicales destinées à la construction d'un référentiel terminologique d'un type particulier. Afin de prendre en compte le contexte de communication on propose d'utiliser trois sortes de repères : - le référentiel d'objets propre à une organisation, - les propriétés pragmatiques des noms propres, - la collecte d'une partie du vocabulaire caractéristique du corpus utilisé comme source du référentiel terminologique, réalisée à partir d'une sélection de noms propres. Ainsi, cette collecte ne se limite pas aux seules unités terminologiques : elle comprend également des mots relevant de la langue commune et des noms propres. Les unités appartenant au vocabulaire du corpus sont choisies en fonction du type de relations sémantiques établies avec les noms propres dans les discours. Enfin, les résultats obtenus sont évalués en termes de productivité, de fiabilité et de représentativité.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
9

Ben, Jbara Noah. „Risk management in supply chains : a simulation and model-based approach“. Thesis, Université Grenoble Alpes (ComUE), 2018. http://www.theses.fr/2018GREAI003.

Der volle Inhalt der Quelle
Annotation:
La maîtrise des risques est un enjeu majeur pour les entreprises. Loin d’être l’apanage des seules catastrophes naturelles, les perturbations des chaînes logistiques actuelles peuvent parfois être causées par des événements mineurs amplifiés par les failles d’organisations industrielles de plus en plus complexes. Nombreux sont les exemples de ces perturbations avec des conséquences économiques graves.La gestion des risques dans les chaines logistiques est un thème récent et les méthodes et outils actuels ne répondent pas encore totalement aux préoccupations des gestionnaires de ces chaînes logistiques. Une grande aide peut être apportée par la simulation des événements affectant les chaînes. Cependant malgré son efficacité pour couvrir la complexité de la chaîne, la simulation reste encore difficile à mettre en œuvre, notamment dans les phases de création et d’exploitation des modèles.Le but de cette thèse est de faciliter l’utilisation de la simulation pour l’analyse des risques dans les chaines logistiques. Ainsi, nous avons développé un référentiel de modélisation pour la simulation qui permet d’assurer une construction facile des modèles de la structure, du comportement et des risques inhérents aux chaines logistiques. Ce référentiel est bati sur un ensemble de metamodèles et de bibliothèques adaptés à la définition de chaînes logistiques et définis sur la base du référentiel SCOR. Ajouté à cela, nous avons proposé un guide de traduction permettant le passage d’un modèle conceptuel de chaîne logistique vers un modèle de simulation permettant de tester les scénarios de risque. Une bibliothèque de modules de simulation a été proposée pour accompagner ce passage. Une étude de cas a été menée pour tester et valider partiellement l’approche proposée
Controlling risks is an important issue for companies. Far from being only the prerogative of natural disasters, the disruptions of today's supply chains can sometimes be caused by minor events amplified by the flaws of increasingly complex industrial organizations, causing severe economic losses.Risk management in supply chains is a recent theme and the proposed solutions are not yet able to meet the needs of practitioners. One of the solutions to analyse risks is using simulation. But, despite its effectiveness to cover the complexity of the chain, it still presents a major weakness which is the difficulty of implementation.The aim of this thesis is to facilitate and to adapt the simulation for risk analysis of supply chains. Thus, we have developed a modeling framework for simulation which enables an easy construction of models of supply chain structure, behavior and if the associated risks. This is done through the proposition of a set of meta-models and libraries, defined on the basis of the SCOR reference model. In addition, we proposed a translation guide for the translation of the conceptual model of supply chains into a simulation model and enabling testing risk scenario. Additionaly, we developed a library of simulation modules.A case study was conducted and the results show the relevance of the proposed approach
APA, Harvard, Vancouver, ISO und andere Zitierweisen
10

Sadeghi, Rezvan. „Consistency of global and local scheduling decisions in semiconductor manufacturing“. Thesis, Lyon, 2017. http://www.theses.fr/2017LYSEM023.

Der volle Inhalt der Quelle
Annotation:
Le niveau opérationnel dans la fabrication de semi-conducteurs peut être divisé en un niveau global et un niveau local. Le niveau global est associé aux décisions d’ordonnancement et de contrôle de la production pour l’ensemble de l’unité de fabrication (fab), tandis que le niveau local traite de ces problèmes dans chaque atelier. Le niveau global établit des objectifs ou des contraintes au niveau local. Dans cette thèse, nous proposons un cadre général qui vise à contrôler les décisions prises au niveau local pour assurer la cohérence entre les décisions d’ordonnancement aux niveaux global et local. Le cadre est composé de deux niveaux. Le niveau inférieur comprend les politiques locales utilisées dans chaque atelier. Le niveau supérieur comprend les objectifs globaux, les informations globales et une stratégie globale qui est au coeur de ce cadre. La stratégie globale proposée vise à contrôler les politiques locales ainsi que les processus de production. L’idée est de gérer périodiquement la stratégie globale, en même temps que que la production, pour guider le processus de production vers la réalisation des objectifs globaux et assurer ainsi une cohérence entre les décisions prises aux niveaux global et local. Nous proposons deux types de stratégie globale : (1) une stratégie basée sur l’évaluation qui vise à améliorer le processus de production sans garantie de déterminer une solution optimale et (2) une stratégie d’optimisation basée sur un modèle de programmation linéaire. Afin d’évaluer la performance du cadre proposé, nous avons développé un modèle de simulation générique basé sur les données pour les systèmes de fabrication de semi-conducteurs. Le modèle de simulation, développé avec le logiciel AnyLogic, est une combinaison de méthodes de simulation multi-agents et de simulation à événements discrets. Étant donné que le solveur standard IBM ILOG CPLEX est utilisé pour résoudre le modèle de programmation linéaire, nous décrivons son intégration avec AnyLogic. Un ensemble d’expérimentations sur des instances industrielles sont présentées et discutées. En outre, cette thèse traite de la gestion des contraintes de temps. Dans une usine de fabrication de semi-conducteurs, les contraintes de temps sont associées à deux étapes du processus pour assurer le rendement et la qualité des lots. Une contrainte de temps correspond à un temps maximal qu’un lot ne doit pas dépasser entre les deux étapes. Si une contrainte de temps n’est pas satisfaite, le lot sera mis au rebut ou traité à nouveau. Par conséquent, parce que les équipements de fabrication sont onéreux et que les temps de cycle doivent être minimisés, il est important de contrôler efficacement le démarrage des lots dans les contraintes de temps. Nous proposons une approche qui estime la probabilité de satisfaire une contrainte de temps avant de démarrer la première étape de la contrainte. Cette approche a été mise en oeuvre et validée sur des données industrielles
The operational level in semiconductor manufacturing can be divided into a global level and a local level. The global level refers to the scheduling decisions and production control for the whole manufacturing facility (fab), while the local level deals with those issues in each work area. The global level provides objectives or constraints for the local level. In this thesis, we propose a general framework which aims at supporting and controlling the decisions taken at the local level to deal with consistency problems between global and local scheduling decisions. The framework is composed of two layers. The bottom layer includes local policies used in each work center. The top layer consists of global objectives, global information and a global strategy which is the core of this framework. The proposed global strategy aims at controlling local policies as well as production processes. The idea is to periodically run the global strategy while production is performed to guide the production process towards achieving global objectives, and thus ensuring consistency between decisions taken at the global and local levels. We propose two types of global strategy: (1) An evaluation-based strategy which aims at improving the production process with no guarantee to determine an optimal solution and (2) An optimization-based strategy, based on a Linear Programming model. In order to evaluate the performance of the proposed framework, we develop a data-driven generic simulation model for semiconductor manufacturing facilities. The simulation model is a combination of Agent-Based and Discrete Event modelling methods developed with the software AnyLogic. Since the standard solver IBM ILOG CPLEX is used to solve the linear programming model, we describe its integration with AnyLogic. A set of experiments on industrial instances are presented and discussed. In addition, this thesis deals with the management of time constraints. In a semiconductor manufacturing facility, time constraints are associated to two process steps to ensure the yield and quality of lots. A time constraint corresponds to a maximum time that a lot can spend between the two steps. If a time constraint is not satisfied by a lot, this lot will be scrapped or reprocessed. Therefore, because manufacturing equipment is expensive and cycle times must be minimized, efficiently controlling the start of lots in time constraints is important. We propose an approach which estimates the probability of satisfying a time constraint before starting a lot in the first step of the time constraint. This approach was implemented and validated on industrial constraints
APA, Harvard, Vancouver, ISO und andere Zitierweisen

Bücher zum Thema "Organisation industrielle – Méthodes statistiques"

1

Serge, Volkoff, und Cristofari Marie-France, Hrsg. L' ergonomie et les chiffres de la santé au travail: Ressources, tensions et pièges. Toulouse: Octares, 2005.

Den vollen Inhalt der Quelle finden
APA, Harvard, Vancouver, ISO und andere Zitierweisen
2

1965-, Hu Chuanrong, Hrsg. Shi yan she ji yu shu ju chu li: Experiment design and data processing. 2. Aufl. Beijing Shi: Hua xue gong ye chu ban she, 2008.

Den vollen Inhalt der Quelle finden
APA, Harvard, Vancouver, ISO und andere Zitierweisen
3

1954-, Lance Charles E., und Vandenberg Robert J, Hrsg. Statistical and methodological myths and urban legends: Doctrine, verity, and fable in the organizational and social sciences. New York: Routledge/Psychology Press, 2009.

Den vollen Inhalt der Quelle finden
APA, Harvard, Vancouver, ISO und andere Zitierweisen
4

M, Carley Kathleen, und Prietula Michael J, Hrsg. Computational organization theory. Hillsdale, N.J: L. Erlbaum Associates, 1994.

Den vollen Inhalt der Quelle finden
APA, Harvard, Vancouver, ISO und andere Zitierweisen
5

Elizabeth, Higginbotham, und Andersen Margaret L, Hrsg. Race and ethnicity in society: The changing landscape. Belmont, CA: Thomson/Wadsworth, 2006.

Den vollen Inhalt der Quelle finden
APA, Harvard, Vancouver, ISO und andere Zitierweisen
6

Lewicki, Paul, und Thomas Hill. Statistics: Methods and Applications. StatSoft, Inc., 2005.

Den vollen Inhalt der Quelle finden
APA, Harvard, Vancouver, ISO und andere Zitierweisen
7

Estimating with Random Numbers: And Other Miscellaneous Models. Taylor & Francis Group, 2018.

Den vollen Inhalt der Quelle finden
APA, Harvard, Vancouver, ISO und andere Zitierweisen
8

Lance, Charles E., und Robert J. Vandenberg. More Statistical and Methodological Myths and Urban Legends: Doctrine, Verity and Fable in Organizational and Social Sciences. Taylor & Francis Group, 2014.

Den vollen Inhalt der Quelle finden
APA, Harvard, Vancouver, ISO und andere Zitierweisen
9

More Statistical and Methodological Myths and Urban Legends. Routledge, 2014.

Den vollen Inhalt der Quelle finden
APA, Harvard, Vancouver, ISO und andere Zitierweisen
10

Lance, Charles E., und Robert J. Vandenberg. More Statistical and Methodological Myths and Urban Legends: Doctrine, Verity and Fable in Organizational and Social Sciences. Taylor & Francis Group, 2014.

Den vollen Inhalt der Quelle finden
APA, Harvard, Vancouver, ISO und andere Zitierweisen

Buchteile zum Thema "Organisation industrielle – Méthodes statistiques"

1

Ofstad, Barbara, und Anne Bartel-Radic. „Recherches sur la Sustainability“. In Recherches sur la Sustainability, 121–40. EMS Editions, 2023. http://dx.doi.org/10.3917/ems.cheva.2023.01.0121.

Der volle Inhalt der Quelle
Annotation:
Une éducation de qualité constitue le quatrième objectif de développement durable (ODD) des Nations unies. Dans le contexte des ressources humaines des entreprises, la durabilité concerne à la fois l’employabilité des individus et l’apprentissage organisationnel afin de garantir l’adaptabilité et la capacité d’innovation de l’entreprise. C’est sur ce dernier domaine de l’apprentissage organisationnel que porte ce chapitre. Il vise à comprendre comment et pourquoi l’établissement de « ponts » par-dessus les frontières internes (le « boundary spanning »), le leadership et la prédisposition des individus interagissent pour contribuer à l’apprentissage, à la transformation digitale et donc à la résilience d’une organisation et sa préparation pour l’avenir. Nous étudions ici le cas particulier du département de l’apprentissage en entreprise d’une multinationale industrielle allemande, en charge de l’enseignement et de la formation des jeunes professionnels en apprentissage. La transformation digitale demande aux formateurs d’acquérir de nouvelles compétences comme de nouvelles méthodes d’enseignement. Ce chapitre décrit les méthodes et activités avec lesquelles l’apprentissage par les pairs peut être amélioré dans ce contexte. Ainsi, nous montrons aux managers comment agir en période post-covid pour permettre un changement de culture et l’apprentissage tout au long de la vie, afin d’assurer la durabilité de l’entreprise.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
Wir bieten Rabatte auf alle Premium-Pläne für Autoren, deren Werke in thematische Literatursammlungen aufgenommen wurden. Kontaktieren Sie uns, um einen einzigartigen Promo-Code zu erhalten!

Zur Bibliographie