Дисертації з теми "Modélisation du process"

Щоб переглянути інші типи публікацій з цієї теми, перейдіть за посиланням: Modélisation du process.

Оформте джерело за APA, MLA, Chicago, Harvard та іншими стилями

Оберіть тип джерела:

Ознайомтеся з топ-50 дисертацій для дослідження на тему "Modélisation du process".

Біля кожної праці в переліку літератури доступна кнопка «Додати до бібліографії». Скористайтеся нею – і ми автоматично оформимо бібліографічне посилання на обрану працю в потрібному вам стилі цитування: APA, MLA, «Гарвард», «Чикаго», «Ванкувер» тощо.

Також ви можете завантажити повний текст наукової публікації у форматі «.pdf» та прочитати онлайн анотацію до роботи, якщо відповідні параметри наявні в метаданих.

Переглядайте дисертації для різних дисциплін та оформлюйте правильно вашу бібліографію.

1

Ulmer, Jean-Stéphane. "Approche générique pour la modélisation et l'implémentation des processus." Thesis, Toulouse, INPT, 2011. http://www.theses.fr/2011INPT0002/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Une entreprise doit être capable de décrire et de demeurer réactive face à un événement endogène ou exogène. Une telle flexibilité peut s'obtenir par la gestion des processus d'entreprise (Business Process Management - BPM). Lors d'une démarche BPM, différentes transformations interviennent sur les modèles de processus développés par l'analyste métier et l'expert en technologies de l'information. Un non-alignement se crée entre ces modèles hétérogènes lors de leurs manipulations : il s'agit du "fossé métier-TI" tel que décrit dans la littérature. L'objectif de notre travail est de proposer un cadre méthodologique permettant un meilleur pilotage des processus métier, afin de tendre vers un alignement systématique de leur modélisation à leur implémentation au sein du système cible. A l'aide de concepts issus de l'ingénierie d'Entreprise et des Systèmes d'Informations dirigée par les modèles et des TI, nous définissons une démarche générique assurant une cohérence intermodèle. Son rôle est de conserver et de fournir toutes les informations liées à la structure et à la sémantique des modèles. En permettant la restitution intégrale d'un modèle transformé au sens de l'ingénierie inverse, notre plateforme permet une synchronisation entre modèle d'analyse et modèle d'implémentation. Le manuscrit présente également l'adéquation possible entre l'ingénierie des procédés et le BPM à travers un point de vue multi-échelle
A company must be able to describe and to remain responsive against endogenous or exogenous events. Such flexibility can be obtained with the Business Process Management (BPM). Through a BPM approach, different transformations operate on process models, developed by the business analyst and IT expert. A non-alignment is created between these heterogeneous models during their manipulation: this is the "business-IT gap" as described in the literature. The objective of our work is to propose a methodological framework for a better management of business processes in order to reach a systematic alignment from their modelling to their implementation within the target system. Using concepts from Model-driven Enterprise and Information System engineering, we define a generic approach ensuring an intermodal consistency. Its role is to maintain and provide all information related to the model structure and semantics. By allowing a full restitution of a transformed model, in the sense of reverse engineering, our platform enables synchronization between analysis model and implementation model. The manuscript also presents the possible match between process engineering and BPM through a multi- erspective scale
2

Dopler, Thomas. "Low pressure infiltration process modeling." Châtenay-Malabry, Ecole centrale de Paris, 1999. http://www.theses.fr/1999ECAP0673.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les composites à matrice métallique, une matrice métalliquerenforcée par des fibres ou particlues céramiques, constituent un solution élegante pour obtenir des materiaux à propriétés mécaniques, de résistance à l'usure et à la fatigue exceptionnelles. Leurs applications sonts pour le moment limitées, moins à cause de leur coût, mais plutôt à cause des problème liés à la reproductibilité et à la dispertionde leurs propriétés. Le travail présent contribue au développement d'un code de simulation capable de prédire la cinétique d'infiltration pendant l'infiltration sous pression. Pour la première fois l'écoulement non saturé et le transfert de chaleur incluant la solidification sont traités d'une façon simultanée.
3

Lu, Xiaofei. "Modélisation du carnet d’ordres, Applications Market Making." Thesis, Université Paris-Saclay (ComUE), 2018. http://www.theses.fr/2018SACLC069/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Cette thèse aborde différents aspects de la modélisation de la microstructure du marché et des problèmes de Market Making, avec un accent particulier du point de vue du praticien. Le carnet d’ordres, au cœur du marché financier, est un système de files d’attente complexe à haute dimension. Nous souhaitons améliorer la connaissance du LOB pour la communauté de la recherche, proposer de nouvelles idées de modélisation et développer des applications pour les Market Makers. Nous remercions en particuler l’équipe Automated Market Making d’avoir fourni la base de données haute-fréquence de très bonne qualité et une grille de calculs puissante, sans laquelle ces recherches n’auraient pas été possible. Le Chapitre 1 présente la motivation de cette recherche et reprend les principaux résultats des différents travaux. Le Chapitre 2 se concentre entièrement sur le LOB et vise à proposer un nouveau modèle qui reproduit mieux certains faits stylisés. A travers cette recherche, non seulement nous confirmons l’influence des flux d’ordres historiques sur l’arrivée de nouveaux, mais un nouveau modèle est également fourni qui réplique beaucoup mieux la dynamique du LOB, notamment la volatilité réalisée en haute et basse fréquence. Dans le Chapitre 3, l’objectif est d’étudier les stratégies de Market Making dans un contexte plus réaliste. Cette recherche contribueà deux aspects : d’une part le nouveau modèle proposé est plus réaliste mais reste simple à appliquer pour la conception de stratégies, d’autre part la stratégie pratique de Market Making est beaucoup améliorée par rapport à une stratégie naive et est prometteuse pour l’application pratique. La prédiction à haute fréquence avec la méthode d’apprentissage profond est étudiée dans le Chapitre 4. De nombreux résultats de la prédiction en 1- étape et en plusieurs étapes ont retrouvé la non-linéarité, stationarité et universalité de la relation entre les indicateurs microstructure et le changement du prix, ainsi que la limitation de cette approche en pratique
This thesis addresses different aspects around the market microstructure modelling and market making problems, with a special accent from the practitioner’s viewpoint. The limit order book (LOB), at the heart of financial market, is a complex continuous high-dimensional queueing system. We wish to improve the knowledge of LOB for the research community, propose new modelling ideas and develop concrete applications to the interest of Market Makers. We would like to specifically thank the Automated Market Making team for providing a large high frequency database of very high quality as well as a powerful computational grid, without whom these researches would not have been possible. The first chapter introduces the incentive of this research and resumes the main results of the different works. Chapter 2 fully focuses on the LOB and aims to propose a new model that better reproduces some stylized facts. Through this research, not only do we confirm the influence of historical order flows to the arrival of new ones, but a new model is also provided that captures much better the LOB dynamic, notably the realized volatility in high and low frequency. In chapter 3, the objective is to study Market Making strategies in a more realistic context. This research contributes in two aspects : from one hand the newly proposed model is more realistic but still simple enough to be applied for strategy design, on the other hand the practical Market Making strategy is of large improvement compared to the naive one and is promising for practical use. High-frequency prediction with deep learning method is studied in chapter 4. Many results of the 1-step and multi-step prediction have found the non-linearity, stationarity and universality of the relationship between microstructural indicators and price change, as well as the limitation of this approach in practice
4

Pujol, Arnaud. "Modélisation du procédé de compostage - Impact du phénomène de séchage." Thesis, Toulouse, INPT, 2012. http://www.theses.fr/2012INPT0015/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Le compostage constitue un phénomène simple qui nécessite cependant un savoir-faire important puisque la réaction biologique est orientée par le contrôle de certains paramètres (température, oxygène, humidité) faisant intervenir de nombreux phénomènes couplés. Face à la complexité des mécanismes à étudier et dans le but d'optimiser le procédé industriel, l'utilisation d'un modèle de compostage semble donc pertinente afin de mieux comprendre les mécanismes mis en jeu, d'identifier les effets des couplages entre les mécanismes et mettre en avant certains facteurs clés ou encore comparer différents scénarios. L'état de l'art des modèles de compostage montre qu'aujourd'hui, malgré le nombre important de modèles de compostage, il n'en existe aucun capable de prédire, avec une formulation en temps et en espace, la température, la concentration des gaz (oxygène, dioxyde de carbone, diazote, …), la teneur en eau, les transferts entre phase, la dégradation du substrat, et prenant en compte les modifications d'aération. Le développement d'un nouveau modèle a donc été nécessaire pour pouvoir prédire l'évolution de ces variables et étudier leur couplage dans le procédé. Pour cela, la technique de moyenne volumique, appliquée aux équations à l'échelle du pore, a été utilisée et a permis d'obtenir un modèle de compostage à l'échelle de Darcy. Ce modèle prend en compte une phase gazeuse, une phase liquide et une phase solide. La phase gazeuse comprend quatre espèces : oxygène, dioxyde de carbone, azote, et vapeur d'eau. Dans la phase liquide, seule l'eau est considérée. Le séchage est intégré au modèle sous la forme d'un terme d'échange entre les phases gazeuse et liquide. Enfin, un modèle biologique, inclus dans le modèle de compostage, permet de prendre en compte la dégradation du substrat. Celui-ci est divisé en trois fractions : rapidement biodégradable, lentement biodégradable et inerte. Les deux premières fractions sont solubilisées, fournissant une fraction rapidement hydrolysable. Cette fraction est supposée directement consommée par les bactéries. En compostage, procédé aérobie, la dégradation de la matière organique est associée à une consommation d'oxygène et production de dioxyde de carbone, d'eau et de chaleur. L'hypothèse d'équilibre local thermique et chimique a été supposée ici. Cependant, pour l'eau, les 2 approches (Equilibre Local (EL) et Non-Equilibre Local (NEL)) ont été testées numériquement. Les résultats ont montré que lorsque σ, le coefficient d'échange de masse entre la phase gaz et la phase liquide pour l'eau, est compris dans l'intervalle [1, 4], les approches EL et NEL sont équivalentes, avec des temps de calcul moindres pour le cas NEL. Ainsi, pour toutes les simulations, une écriture NEL a été adoptée avec une valeur de σ de 2.5. Des tests ont ensuite permis de montrer la consistance du modèle. Au vu du nombre important de paramètres, une analyse de sensibilité a ensuite été réalisée afin de déterminer quels sont les paramètres qui ont l'impact le plus important sur le procédé. Ainsi, l'analyse a mis en évidence qu'il faut être prudent quant aux valeurs utilisées pour la capacité calorifique, un coefficient de l'isotherme de sorption, de nombreux paramètres du modèles biologiques (ksH, krH, µmax, Xa,0, Tmax, Topt, Xi,0, Xrb,0) et la porosité. Enfin, les résultats fournis par le modèle ont été comparés aux résultats expérimentaux obtenus à l'échelle pilote 1/1000 en usant des conditions opératoires identiques. Les essais de compostage réels ont été réalisés par Veolia Environnement Recherches et Innovation sur un mélange de biodéchets des ménages et de déchets verts
Composting may look like a simple process. However, it requires an important expertise, as the biological response is governed by the control parameters (temperature, oxygen, moisture content), involving many coupled phenomena. Given the complexity of the studied mechanisms and in order to optimize the process, using a composting model seems relevant to understand the mechanisms involved, identify the effects of coupling between these mechanisms, highlight some key factors or compare different scenarios, in order to optimize the industrial process. The state of the art of composting models in the literature shows that today, despite the large number of composting models, there is none that can predict, with a formulation in time and space, temperature, concentration of gases (oxygen, carbon dioxide, nitrogen, ...), moisture content, transfers between phases, degradation of the substrate, and take into account the changes in aeration. The development of a new model was therefore necessary to predict the evolution of these variables and study their coupling in the process. The technique of volume averaging applied to the pore scale equations has led to a composting model at the Darcy-scale. This model takes into account a gas phase, a liquid phase and a solid phase. The gas phase includes four species: oxygen, carbon dioxide, nitrogen and water vapor. In the liquid phase, only water is considered. Drying is integrated into the model as an exchange term between gas and liquid phases. Finally, the biological model, included in the composting model, allows to take into account the degradation of the substrate. It is divided into three fractions: readily hydrolysable, slowly hydrolysable and inert. The first two fractions are hydrolized, providing a readily assimilable soluble fraction. It is this fraction that is directly consumed by bacteria. In a composting process, degradation of organic matter is associated with oxygen consumption and production of carbon dioxyde, water and heat. The assumption of thermal and chemical local equilibrium was assumed in this work. However, for water, the two approaches (Local Equilibrium (LE) and Local Non-Equilibrium (LNE)) have been numerically tested. The results showed that when , the water mass exchange coefficient between gas and liquid phases, ranges from 1 to 4 s-1, the LE and LNE approaches are equivalent, with less computing time for the LNE case. Thus, for all future simulations, it was decided to adopt a LNE approach with a value of equal to 2.5 s-1. Tests were then carried out to show the consistency of the model. Given the large number of parameters, a sensitivity analysis was performed to determine the parameters that have the greatest impact on the process. This analysis showed that one must be cautious about the values used for the heat capacity, a coefficient of the sorption isotherm, many parameters from the biological model (ksH, krH, μmax, Xa,0, Tmax, Topt, Xi,0, Xrb,0) and porosity, because these are the parameters that affect mainly the process. Finally, the results provided by the model were compared with experimental results obtained at a pilot scale of 1/1000 using identical operating conditions. The composting experiments were carried out by Veolia Environment Research and Innovation with a mixture of household biowaste and green waste. The results on the 1/1000 scale pilot showed that the model is good at capturing the average change in temperature and concentration during the process. The temperature at the central point in particular is very well reproduced by the model. The same applies to the assessment of organic matter degradation. Simulations at industrial scale (1/1) have also been carried out. They have given promising results
5

Kasdali, Sihem. "Modélisation complexe de l’impact des dispositifs de formation à distance." Thesis, Cergy-Pontoise, 2014. http://www.theses.fr/2014CERG0722/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Cette recherche a pour objectif d'analyser l'impact, en l'occurrence, les changements induits par les dispositifs technopédagogiques de formation à distance, sur les comportements des apprenants ; formateurs ou futurs formateurs.Pour ce faire, nous adoptons une approche systémique reposant sur une modélisation par systèmes complexes.La construction de notre modèle vise à éclairer les interrelations qui peuvent exister entre l'individu et son dispositif, et les articulations qui peuvent en découler, leur évolution et leur enchevêtrement aux différentes étapes. Ainsi, la dynamique de changement est appréciée dans son environnement, et met en évidence les variables actives pour construire son intelligibilité.Notre intention de recherche a donc l'ambition de ne pas considérer la formation comme une variable explicative de la dynamique de changement, mais de chercher à comprendre, comment dans chaque formation ; un ensemble de variables permettent d'aboutir à des résultats alors que d'autres variables ne le permettent pas. Notre proposition consiste à identifier un espace de variables particulières, les "variables processus". Celles-ci décrivent dans le temps, l'espace et la forme, les processus qui se mettent en place dans cette dynamique
This research aims at analysing the impact, in this case, of the changes led by technopedagogical systems of distance education, on the behavior of learners, trainers or future trainers.To do so, we adopt a systemic approach based on modeling complex systems. The implementation of our model aims at highlighting the interrelations that can exist between the individual and his system, and the structure that may arise, their evolution and their entanglement at different stages. Thus, the dynamics of change is appreciated in its environment, and highlights the active variables in order to build its intelligibility.Our research intention has thus the ambition of not considering the training as a variable explaining the dynamics of change, but to try to understand, like in each training, a set of variables used, leading to results while other variables do not allow it to happen. Our proposal consists of identifying possible relevant variables, the “process variables”. These describe, across time, the space and the processing that are implemented in this dynamics
6

Constant, Camille. "Modélisation stochastique et analyse statistique de la pulsatilité en neuroendocrinologie." Thesis, Poitiers, 2019. http://www.theses.fr/2019POIT2330.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
L’objectif de cette thèse est de proposer plusieurs modèles probabilistes pour représenter l’activité calcique des neurones et comprendre son implication dans la sécrétion d’hormone GnRH. Ce travail s’appuie sur des expériences réalisées à l’INRA Centre Val-de-Loire. Le Chapitre 1 propose une modélisation continue, où nous étudions un processus markovien de type shot-noise. Le Chapitre 2 étudie un modèle discret de type AR(1) basé sur la discrétisation du modèle du Chapitre 1 et propose une première estimation des paramètres. Le Chapitre 3 propose un autre modèle discret de type AR(1) où les innovations sont la somme d’une variable de Bernouilli et d’une variable gaussienne représentant un bruit, avec prise en compte d’une tendance linéaire. Des estimations des paramètres sont proposées dans le but d’une détection des sauts dans les trajectoires des neurones. Le Chapitre 4 étudie une expérience biologique comportant 33 neurones. Avec la modélisation du Chapitre 3, nous détectons des instants de synchronisation (saut simultané d’une grande proportion des neurones de l’expérience) puis à l’aide de simulations, nous testons la qualité de la méthode utilisée et la comparons à une méthode expérimentale
The aim of this thesis is to propose several models representing neuronal calcic activity and unsderstand its applicatition in the secretion of GnRH hormone. This work relies on experience realised in INRA Centre Val de Loire. Chapter 1 proposes a continuous model, in which we examine a Markov process of shot-noise type. Chapter 2 studies a discrete model type AR(1), based on a discretization of the model from Chapter 1 and proposes a first estimation of the parameters. Chapter 3 proposes another dicrete model, type AR(1), in which the innovations are the sum of a Bernouilli variable and a Gaussian variable representing a noise, and taking into account a linear drift . Estimations of the parameters are given in order to detect spikes in neuronal paths. Chapter 4 studies a biological experience involving 33 neurons. With the modelisation of Chapter 3, we detect synchronization instants (simultaneous spkike of a high proportion of neurons of the experience) and then, using simulations, we test the quality of the method that we used and we compare it to an experimental approach
7

Montellano, Garcia Ramón Francisco. "Un système d'aide à la modélisation et à la conduite de bioprocédés." Grenoble INPG, 1989. http://www.theses.fr/1989INPG0081.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Conception et developpement d'un systeme d'aide a la modelisation et a la conduite des bioprocedes. Ce systeme est concu pour permettre en bio-ingenieur d'elaborer facilement et de maniere interactive un modele mathematique de son procede. Le systeme est ecrit en pascal et developpe sur une station apollo
8

Lambolais, Thomas. "Modélisation du développement de spécifications LOTOS." Vandoeuvre-les-Nancy, INPL, 1997. http://www.theses.fr/1997INPL106N.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Notre travail s'inscrit dans les premières étapes du développement de logiciels concernant le passage d'un cahier des charges à une spécification formelle, dans le domaine des réseaux de télécommunications. Notre sujet consiste à étudier la modélisation des étapes de développement de spécifications en langage LOTOS. Le modèle utilisé, PROPLANE, a été préalablement établi pour d'autres domaines. Par le biais d'un nouveau domaine d'application, l'objectif à long terme de notre étude est d'évaluer le modèle PROPLANE et de proposer des améliorations si nécessaire. LOTOS est constitué d'une algèbre de processus et d'une algèbre de données. Nous nous sommes concentrés sur la construction des expressions de comportement, c'est-à-dire des processus, en ayant éventuellement recours aux données. Sous le modèle PROPLANE, toute évolution d'un développement est gérée par des operateurs de développement. Notre modélisation correspond ainsi à des définitions d'operateurs pouvant s'enchainer les uns aux autres. Nous distinguons les constructions architecturale et, comportementale, pour lesquelles les mécanismes utilisés en LOTOS diffèrent. L’architecture fait une large utilisation des operateurs de composition parallèle, avec lesquels il faut veiller à conserver des processus effectifs, voire réguliers. Nous définissons pour cela des notions telles que la rigidité. La construction comportementale demande de définir des opérateurs permettant de gérer le développement d'arbres de transitions, ainsi que le détail de ces transitions. La nouveauté de notre approche consiste à chercher à profiter des propriétés sémantiques des processus en cours de développement. Afin de supporter des lignes de construction incrémentale par réduction de l'indéterminisme, nous donnons une définition opérationnelle des relations d'extension et de réduction de processus. Il apparait que PROPLANE doit être étendu pour manipuler des propriétés temporelles sur les états de développement.
9

Suri, Kunal. "Modeling the internet of things in configurable process models." Electronic Thesis or Diss., Université Paris-Saclay (ComUE), 2019. http://www.theses.fr/2019SACLL005.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Un nombre croissant d’entreprises internationales ont adopté les systèmes d'information centrés-processus pour profiter des avantages de l'utilisation de processus rationalisés basés sur des modèles prédéfinis, également appelés modèles de processus métier. Cependant, l'environnement commercial dynamique actuel exige de la flexibilité et la réutilisation systématique des processus métier, qui se manifeste par l'utilisation de modèles de processus configurables (CPM). Ceci évite le développement de processus à partir de zéro, qui est à la fois une démarche fastidieuse et sujette à de nombreuses erreurs, et facilite le partage d'une famille de variantes de processus métier pouvant être personnalisées en fonction d'exigences métier concrètes. Par ailleurs, l'adoption des ressources de l'Internet des objets (IoT) dans les processus d'entreprise inter-organisationnels est également en croissante constante. Cependant, ces ressources IoT doivent être utilisées efficacement. Ces dispositifs IoT sont hétérogènes en raison de leurs propriétés et de leurs fabricants (normes propriétaires), ce qui pose des problèmes d’interopérabilité. De plus, étant limitées, elles doivent être allouées (et consommées) en gardant à l'esprit des contraintes, tels que le coût énergétique, le coût de calcul, etc. pour éviter les pannes pendant leurs consommations par les processus. Il est donc essentiel de modéliser explicitement la perspective des ressources IoT dans les modèles de processus métiers lors de la phase de conception. Dans la littérature, divers travaux de recherche dans le domaine de gestion des processus métier (BPM) sont généralement axés sur la perspective du flux de contrôle. Bien qu'il existe certaines approches axées sur la perspective des ressources, elles sont généralement dédiées à la perspective des ressources humaines. Ainsi, les travaux sur l'intégration de la perspective des ressources IoT dans les processus métier sont limités pour résoudre des problèmes liés à l'hétérogénéité. De même, dans le contexte des CPM, il n’existe aucune prise en charge de la configuration permettant de modéliser la variabilité des ressources IoT au niveau des CPM. Cette variabilité résulte des fonctionnalités spécifiques aux ressources IoT, telles que la possibilité de partage, et réplication, qui sont pertinentes dans le contexte des processus métier. Dans cette thèse, nous abordons les limitations susmentionnées en proposant une approche pour intégrer la perspective IoT dans le domaine du BPM et soutenir le développement de CPM. Ce travail propose les contributions suivantes: (1) il fournit une description formelle de la perspective des ressources IoT, et de ses relations avec le domaine BPM à l'aide de la technologie sémantique, et (2) il fournit de nouveaux concepts pour permettre l'allocation de ressources IoT configurables dans les CPM. Pour valider notre approche et démontrer sa faisabilité, nous procédons comme suit: (1) implémenter des outils preuve de concept qui soutiennent le développement de processus métier et de modèles de processus configurables conscient des IoT, et (2) réaliser des expérimentations sur des jeux de données de modèles de processus qui démontrent l’efficacité de notre approche et affirment sa faisabilité
On the one hand, a growing number of multi-national organizations have embraced the Process-Aware Information Systems (PAIS) to reap the benefits of using streamlined processes that are based on predefined models, also called as Business Process (BP) models. However, today's dynamic business environment demands flexibility and systematic reuse of BPs, which is provided by the use of Configurable Process Models (CPMs). It avoids the development of processes from scratch, which is both time-consuming and error-prone, and facilitates the sharing of a family of BP variants that can be customized based on concrete business requirements. On the other hand, the adoption of the Internet of Things (IoT) resources in various cross-organizational BPs is also on a rise. However, to attain the desired business value, these IoT resources must be used efficiently. These IoT devices are heterogeneous due to their diverse properties and manufactures (proprietary standards), which leads to issues related to interoperability. Further, being resource-constrained, they need to be allocated (and consumed) keeping in the mind relevant constraints such as energy cost, computation cost, to avoid failures during the time of their consumption in the processes. Thus, it is essential to explicitly model the IoT resource perspective in the BP models during the process design phase. In the literature, various research works in Business Process Management (BPM) domain are usually focused on the control-flow perspective. While there do exist some approaches that focus on the resource perspective, they are typically dedicated to the human resource perspective. Thus, there is limited work on integrating the IoT resource perspective into BPs, without any focus on solving issues related to heterogeneity in IoT domain. Likewise, in the context of CPMs, there is no configuration support to model IoT resource variability at the CPM level. This variability is a result of specific IoT resource features such as Shareability and Replication that is relevant in the context of BPs. In this thesis, we address the aforementioned limitations by proposing an approach to integrate IoT perspective in the BPM domain and to support the development of IoT-Aware CPMs. This work contributes in the following manner: (1) it provides a formal description of the IoT resource perspective and its relationships with the BPM domain using semantic technology and (2) it provides novel concepts to enable configurable IoT resource allocation in CPMs. To validate our approach and to show its feasibility, we do the following: (1) implement proof of concept tools that assist in the development of IoT-aware BPs and IoT-aware CPMs and (2) perform experiments on the process model datasets. The experimentation results show the effectiveness of our approach and affirm its feasibility
10

Le, Pivert Patrick. "Contribution à la modélisation et à la simulation réaliste des processus d'usinage." Châtenay-Malabry, Ecole centrale de Paris, 1998. http://www.theses.fr/1998ECAP0553.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
La simulation d'usinage réaliste permet d'anticiper le comportement des machines dans leur aptitude à obtenir des pièces conformes du point de vue des spécifications géométriques. Ce travail modélise un processus d'usinage en précisant l'enchainement de ses différentes phases et, pour chaque phase, déclare les dispersions de mise en position et les dispersions d'usinage. Le passage d'une pièce à un ensemble de pièces fabriquées est obtenu en ne considérant plus le petit déplacement représentatif d'un défaut géométrique de position mais la variance sur ces déplacements. Un nouveau modèle physique du solide <<<> le tenseur de résolution <>>> est alors proposé. Grace à une méthode de simulation en trois dimensions, on vérifie la capacité du processus à satisfaire les différentes spécifications de tolérancement issues du bureau d'études. La conclusion de ce travail met en évidence la capacité du modèle SATT (surfaces associées topologiquement et technologiquement) à modaliser l'information géométrique et le tolérancement nécessaires et suffisants à une simulation du processus d'usinage.
11

Dauzat, Marc. "Évolution thermique des alumines de transition. Modélisation." Phd thesis, Ecole Nationale Supérieure des Mines de Saint-Etienne, 1989. http://tel.archives-ouvertes.fr/tel-00845199.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Le traitement thermique à 1378 K d'une alumine gamma de haute surface spécifique met en évidence plusieurs phénomènes qui modifient considérablement les caractéristiques structurales et texturales du matériau: une importante chute et surface spécifique connue sous le nom de frittage initial des poudres qui se produit lors de la transformation de l'alumine gamma en alumine delta. Expérimentalement, ce phénomène est fortement influence par la présence de vapeur d'eau, ou, dans certains cas par la pression partielle d'oxygène gazeux; une réorganisation du sous-réseau cationique assimilée a un saut des cations aluminium des sites divalents de la structure spinelle vers les sites trivalents des alumines de transition. Cette transformation permet d'obtenir la phase thêta; une précipitation de la seule forme stable à haute température, la phase alpha ou corindon. Cette transformation survient après des hydroxylation complète du matériau. Ces trois phénomènes sont fortement influences par l'addition de cations étrangers: en fonction de la concentration et des caractéristiques de ces cations ces différents phénomènes peuvent être soit ralentis soit accélérés.
12

Al, Haddad Mazen. "Contribution théorique et modélisation des phénomènes instantanés dans les opérations d'autovaporisation et de déshydratation." Phd thesis, La Rochelle, 2007. http://www.theses.fr/2007LAROS216.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
L’autovaporisation instantanée, en tant que processus fondamental, est corrélée à une variation abrupte des conditions thermodynamiques du milieu environnant en deçà de la saturation du liquide. Pendant l’autovaporisation, aucun transfert de chaleur entre le matériau et le milieu extérieur n’a alors lieu vu la courte durée du processus ; la quantité de chaleur nécessaire à l’évaporation de l’eau est récupérée uniquement au sein même de la matière qui voit sa température baisser d’une façon significative. De nombreuses opérations et expérimentations réalisées telles que le BLEVE (Boiling Liquid Expanding Vapor Explosion), le LOCA (Loss Of Coolant Accident), le WFEC (Water Flash Evaporation Cooling), le CSC (Cryogen Spray Cooling), la DIC (Détente Instantanée Contrôlée),… impliquent l’autovaporisation. Aucune étude « générale » n’a été établie. Pourtant, le dépassement de l’état d’équilibre quasi-statique, température et quantité (ou débit) d’eau vaporisée prévues, remet en question le deuxième principe au plan de l’étape intermédiaire… Le deuxième principe reste applicable dès que l’équilibre est atteint. En effet, malgré les nombreuses applications aucune étude thermodynamique classique n’a pu expliquer les phénomènes observés ; seule l’analyse théorique spécifique aux phénomènes d’instantanéité proposée par ALLAF en 2002, sera à la base de l’explication et l’étude de ce type d’autovaporisation. Nous allons à travers cette étude, expliquer et prouver la pertinence de cette analyse théorique dans le cas de quelques phénomènes thermodynamiques « instantanés »
The instantaneous autovaporisation, as a fundamental process, is correlated to an abrupt variation of the thermodynamic conditions of the surrounding environment below the conditions of saturation of the liquid. During the autovaporisation, no heat transfer between the material and the surrounding environment takes place because of the shortness of the process then; the quantity of heat necessary to the evaporation of water is recovered only within the matter that sees its temperature lowering in a meaningful way. Numerous operations and experimentations realized like BLEVE (Boiling Liquid Expanding Vapor Explosion), LOCA (Loss Of Coolant Accident), WFEC (Water Flash Evaporation Cooling), CSC (Cryogen Spray Cooling), DIC (Instantaneous Controlled Pressure Drop)… imply the autovaporisation process. No general survey has been established yet. Nevertheless, the passing of the quasi-statics balance states, temperature and quantity (or flux) of evaporated water predicted, reconsiders the second principle of thermodynamics on the plan of the intermediate stage… The second principle remains applicable as soon as the balance is reached. In spite of the numerous applications, no classical thermodynamic survey could explain the phenomena observed. Indeed, only the specific theoretical analysis to the instantaneous phenomena proposed by ALLAF in 2002 will be the basis of the explanation and the survey of this type of autovaporisation. Through this survey, we will explain and prove the relevance of this theoretical analysis in the case of some instantaneous phenomena
13

Hodara, Pierre. "Systèmes de neurones en interactions : modélisation probabiliste et estimation." Thesis, Cergy-Pontoise, 2016. http://www.theses.fr/2016CERG0854/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
On étudie un système de particules en interactions. Deux types de processus sont utilisés pour modéliser le système. Tout d'abord des processus de Hawkes. On propose deux modèles pour lesquels on obtient l'existence et l'unicité d'une version stationnaire, ainsi qu'une construction graphique de la mesure stationnaire à l'aide d'une décomposition de type Kalikow et d'un algorithme de simulation parfaite.Le deuxième type de processus utilisés est un processus de Markov déterministe par morceaux (PDMP). On montre l'ergodicité de ce processus et propose un estimateur à noyau pour la fonction de taux de saut possédant une vitesse de convergence optimale dans L²
We work on interacting particles systems. Two different types of processes are studied. A first model using Hawkes processes, for which we state existence and uniqueness of a stationnary version. We also propose a graphical construction of the stationnary measure by the mean of a Kalikow-type decomposition and a perfect simulation algorithm.The second model deals with Piecewise deterministic Markov processes (PDMP). We state ergodicity and propose a Kernel estimator for the jump rate function having an optimal speed of convergence in L²
14

Suri, Kunal. "Modeling the internet of things in configurable process models." Thesis, Université Paris-Saclay (ComUE), 2019. http://www.theses.fr/2019SACLL005/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Un nombre croissant d’entreprises internationales ont adopté les systèmes d'information centrés-processus pour profiter des avantages de l'utilisation de processus rationalisés basés sur des modèles prédéfinis, également appelés modèles de processus métier. Cependant, l'environnement commercial dynamique actuel exige de la flexibilité et la réutilisation systématique des processus métier, qui se manifeste par l'utilisation de modèles de processus configurables (CPM). Ceci évite le développement de processus à partir de zéro, qui est à la fois une démarche fastidieuse et sujette à de nombreuses erreurs, et facilite le partage d'une famille de variantes de processus métier pouvant être personnalisées en fonction d'exigences métier concrètes. Par ailleurs, l'adoption des ressources de l'Internet des objets (IoT) dans les processus d'entreprise inter-organisationnels est également en croissante constante. Cependant, ces ressources IoT doivent être utilisées efficacement. Ces dispositifs IoT sont hétérogènes en raison de leurs propriétés et de leurs fabricants (normes propriétaires), ce qui pose des problèmes d’interopérabilité. De plus, étant limitées, elles doivent être allouées (et consommées) en gardant à l'esprit des contraintes, tels que le coût énergétique, le coût de calcul, etc. pour éviter les pannes pendant leurs consommations par les processus. Il est donc essentiel de modéliser explicitement la perspective des ressources IoT dans les modèles de processus métiers lors de la phase de conception. Dans la littérature, divers travaux de recherche dans le domaine de gestion des processus métier (BPM) sont généralement axés sur la perspective du flux de contrôle. Bien qu'il existe certaines approches axées sur la perspective des ressources, elles sont généralement dédiées à la perspective des ressources humaines. Ainsi, les travaux sur l'intégration de la perspective des ressources IoT dans les processus métier sont limités pour résoudre des problèmes liés à l'hétérogénéité. De même, dans le contexte des CPM, il n’existe aucune prise en charge de la configuration permettant de modéliser la variabilité des ressources IoT au niveau des CPM. Cette variabilité résulte des fonctionnalités spécifiques aux ressources IoT, telles que la possibilité de partage, et réplication, qui sont pertinentes dans le contexte des processus métier. Dans cette thèse, nous abordons les limitations susmentionnées en proposant une approche pour intégrer la perspective IoT dans le domaine du BPM et soutenir le développement de CPM. Ce travail propose les contributions suivantes: (1) il fournit une description formelle de la perspective des ressources IoT, et de ses relations avec le domaine BPM à l'aide de la technologie sémantique, et (2) il fournit de nouveaux concepts pour permettre l'allocation de ressources IoT configurables dans les CPM. Pour valider notre approche et démontrer sa faisabilité, nous procédons comme suit: (1) implémenter des outils preuve de concept qui soutiennent le développement de processus métier et de modèles de processus configurables conscient des IoT, et (2) réaliser des expérimentations sur des jeux de données de modèles de processus qui démontrent l’efficacité de notre approche et affirment sa faisabilité
On the one hand, a growing number of multi-national organizations have embraced the Process-Aware Information Systems (PAIS) to reap the benefits of using streamlined processes that are based on predefined models, also called as Business Process (BP) models. However, today's dynamic business environment demands flexibility and systematic reuse of BPs, which is provided by the use of Configurable Process Models (CPMs). It avoids the development of processes from scratch, which is both time-consuming and error-prone, and facilitates the sharing of a family of BP variants that can be customized based on concrete business requirements. On the other hand, the adoption of the Internet of Things (IoT) resources in various cross-organizational BPs is also on a rise. However, to attain the desired business value, these IoT resources must be used efficiently. These IoT devices are heterogeneous due to their diverse properties and manufactures (proprietary standards), which leads to issues related to interoperability. Further, being resource-constrained, they need to be allocated (and consumed) keeping in the mind relevant constraints such as energy cost, computation cost, to avoid failures during the time of their consumption in the processes. Thus, it is essential to explicitly model the IoT resource perspective in the BP models during the process design phase. In the literature, various research works in Business Process Management (BPM) domain are usually focused on the control-flow perspective. While there do exist some approaches that focus on the resource perspective, they are typically dedicated to the human resource perspective. Thus, there is limited work on integrating the IoT resource perspective into BPs, without any focus on solving issues related to heterogeneity in IoT domain. Likewise, in the context of CPMs, there is no configuration support to model IoT resource variability at the CPM level. This variability is a result of specific IoT resource features such as Shareability and Replication that is relevant in the context of BPs. In this thesis, we address the aforementioned limitations by proposing an approach to integrate IoT perspective in the BPM domain and to support the development of IoT-Aware CPMs. This work contributes in the following manner: (1) it provides a formal description of the IoT resource perspective and its relationships with the BPM domain using semantic technology and (2) it provides novel concepts to enable configurable IoT resource allocation in CPMs. To validate our approach and to show its feasibility, we do the following: (1) implement proof of concept tools that assist in the development of IoT-aware BPs and IoT-aware CPMs and (2) perform experiments on the process model datasets. The experimentation results show the effectiveness of our approach and affirm its feasibility
15

Le, Dang Huy. "Modélisation simplifiée des processus de laminage." Phd thesis, Université Paris-Est, 2013. http://pastel.archives-ouvertes.fr/pastel-00966940.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
L'objectif initial de la thèse était de proposer une nouvelle modélisation simplifiée du laminage permettant un calcul rapide, si possible en temps réel, afin que le modèle soit éventuellement intégré à un outil de pilotage des machines de production. Ce modèle ne doit pas négliger les déformations élastiques afin de pouvoir être éventuellement appliqué à l'étude de phénomènes associés à la variation de largeur de la bande ou à des phénomènes de planéité. Il doit par ailleurs être assez ouvert pour que l'on puisse y intégrer éventuellement une description de la microstructure du matériau polycristallin et prendre en compte la déformation des cylindres de laminage. Pour atteindre cet objectif, nous avons proposé de tenter de construire un modèle simplifié semi-analytique du laminage. Dans ce type de modèle, le gradient de la transformation globale peut alors être décomposé multiplicativement en un produit d'une première transformation locale " plastique " , qui transforme le voisinage local initial de dans la configuration relâchée, par une seconde transformation locale " élastique " qui transforme la configuration relâchée dans la configuration actuelle . Cette décomposition est à la base de l'analyse thermodynamique de l'évolution mécanique lorsque le matériau subit de grandes transformations élastoplastiques, laquelle analyse fournit les concepts d'efforts intérieurs et de variables d'état nécessaires à l'écriture de ce comportement. Nous avons montré deux approches permettant le calcul analytique de ces champs lorsque l'histoire de est connue au voisinage d'une particule .Nous avons ensuite proposé l'étude d'une classe particulière d'évolutions élastoplastiques que nous avons appelées " simples radiales " et nous avons montré que les évolutions obéissaient à un principe de minimum énergétique. Nous avons enfin conjecturé que ce principe pouvait être étendu en régime permanant pour permettre de construire une modélisation simplifiée des processus de laminage
16

Azab, Marc. "Caractérisation par corrélation d'images et modélisation par zones cohésives du comportement mécanique des interfaces." Thesis, Université Grenoble Alpes (ComUE), 2016. http://www.theses.fr/2016GREAI102.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Ce travail concerne l'étude de l'intégrité des matériaux ou des structures assemblées en s'intéressant à la modélisation du mécanisme de rupture à l'aide des modèles de zones cohésives (MZC). Cette approche présente l'avantage d'incorporer une longueur caractéristique dans la description de la rupture, ce qui permet notamment d'évaluer des effets de taille. Trois paramètres caractérisent ces MZC : la contrainte de traction Tmax à laquelle l'interface ou le matériau peut résister avant d'amorcer sa décohésion, l'ouverture critique à partir de laquelle une fissure est créée localement et finalement une loi traction-ouverture qui décrit la répartition des efforts cohésifs selon le mécanisme opérant.L'objectif principal de cette thèse est d'identifier les paramètres cohésifs caractérisant la rupture interfaciale dans un joint de colle ou cohésif dans un matériau. Pour cela, une première étape était d'élaborer un modèle analytique, décrivant correctement la cinématique d'un essai DCB ou Wedge, pour caractériser la rupture mode I. Bien que le mode d'ouverture soit opérant, le champ de déplacement au voisinage de l'entaille n'est pas K-dominant pour ces essais, du moins pas toujours. Plusieurs lois de traction-ouverture ont été considérées afin d'étudier leur influence sur la réponse locale et globale de l'essai. Une méthodologie d'identification inverse a été proposée à partir d'un modèle analytique, qui consiste à extraire les paramètres cohésifs en minimisant l'erreur au sens des moindres carrés entre les déflections analytique et numérique. Une fois validée, elle a été par la suite appliquée à un cas réel, qui est l'essai d'insertion de lame. La mesure du champ de déplacement expérimental est possible grâce à une mesure du champ de déplacement par corrélation d'image.Une analyse approfondie a été aussi consacrée à l'étude de la "Process Zone" pour un essai DCB ou Wedge. Cette étude met en évidence la variation de Lcz en fonction de la géométrie des éprouvettes, des propriétés de la zone cohésive, des propriétés mécaniques du matériau ou encore la forme de la loi traction-ouverture utilisée. Une nouvelle expression pour estimer Lcz est établie pour les zones cohésives rectangulaires et triangulaires.Une deuxième approche d’identification locale, basée sur le travail de Réthoré et Estevez (2013), a été aussi proposée et discutée. Elle a été mise en oeuvre pour un essai d'insertion de lame, avant d'être appliquée à un essai de flexion 4 points entaillé. Un aller-retour entre simulation numérique et résultat expérimental permet d'identifier les propriétés cohésives du matériau ou de l'interface
This work concerns the study of materials and assemblies structures integrity using cohesive zone model (CZM) to analyze fracture. These models have the advantage to incorporate a characteristic length in the description of fracture initiation and propagation, which can lead to size effects studies. Three parameters characterize the CZM : the maximal cohesive traction Tmax to which the interface or the material can resist before the onset of debonding, the critical crack opening from which a crack is created locally and finally the traction-separation law which describe the cohesive traction distribution depending on fracture process.The main purpose of this thesis is to identify the cohesive zone parameters describing fracture at the interface or in the material. The first step was to elaborate an analytical model which can describe properly the DCB or Wedge Test kinematic, to characterize mode I fracture. Despite the fact of mode I fracture, the displacement field near the crack-tip is not K-dominant for these tests, at least not always. Various traction-separation laws were considered in order to study their influence on the local and global response of the test. An inverse identification methodology has been proposed from the analytical model, which can extract cohesive parameters through a least square error minimization between numerical and analytical deflection. Once validated, it was subsequently applied to a real Wedge test. The experimental displacement field measurement was done due to digital image correlation measurement.A deep analysis to evaluate the fracture process zone length has been also dedicated in the case of Wedge or DCB Tests. This analysis shows that Lcz is not an intrinsic interface or materials property and it can vary depending on the sample's geometry, the cohesive zone properties or the traction-separation law. A new expression to determine Lcz was established for rectangular and triangular cohesive zone.A second local identification approach, based on the work of Réhoré and Estevez (2013), has been also proposed. It was implemented to analyze the Wedge test, before applying it to a notched four points bending test. A round trip between numerical simulations and experimental results allow identifying the cohesive properties in the materiel or at the interface
17

Le, Dain Guillaume. "Modélisation de la gravure profonde du silicium en plasmas fluorés : étude du procédé BOSCH : simulations et calibration expérimentale." Thesis, Nantes, 2018. http://www.theses.fr/2018NANT4048/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Dans le cadre d’une collaboration entre l’Institut des Matériaux Jean Rouxel (IMN) et STMicroelectronics Tours, cette étude vise à développer un simulateur de gravure du silicium par procédé Bosch. Actuellement utilisé dans le domaine de la microélectronique pour la gravure de vias, le procédé Bosch est un procédé pulsé de gravure par plasma. Un plasma de SF₆ permet la gravure du silicium par voie chimique, par adsorption de fluor atomique en surface du silicium pour créer des molécules volatiles. Un second plasma de C₄F₈ permet de protéger la surface exposée au plasma de gravure chimique, à l’aide d’un dépôt de polymère de fluorocarbonés. Ce polymère est supprimé dans la zone exposée au bombardement ionique. La répétition de pulses SF₆/C₄F₈ permet alors la création de motifs à fort facteur de forme (plus profonds quelarges).Afin de mieux connaître les mécanismes physico-chimiques qui régissent ce procédé, nous avons développé un simulateur de gravure basé sur une approche multi-échelle. Cet outil sert à reconstituer des profils de gravure en fonction des conditions opératoires renseignées (pression, puissance, débit, géométrie du réacteur). Le modèle cinétique calcule les densités et flux d’espèces neutres et ioniques crées dans le plasma. Le modèle de gaine détermine les fonctions de distributions énergétiques et angulaires des ions. Le modèle de surface détermine l’évolution spatio-temporelle des structures gravées par procédé Bosch. Pour calibrer le simulateur, des campagnes expérimentales ont été réalisées à l’IMN sur la phase plasma, ainsi que sur le site STMicroelectronics Tours, sur l’impact des conditions opératoires sur l’évolution des profils de gravure
Due to a collaborationbetween IMN of Nantes and STMicroelectronics Tours, the aim of this study is the development of silicon etching simulator using Bosch process Nowadays used for microelectronics devices such as 3D capacitors or vias, Bosch process is a cyclic plasma etching process. Two plasmas are needed, a SF₆ plasma to etch silicon by chemical way, using mainly chemical processes. A C₄F₈ plasma which allows the deposition of fluorocarbon species into a “Teflon-Like” polymer, to passivate sidewalls of the trenches and protect them from chemical etching. This polymer is removed by ion bombardment. By the repetition of a large amount of SF₆/C₄F₈pulses, the process leads to the creation of features with a high aspect ratio (a high depth for a low aperture).To develop an intimate knowledge about physical and chemical interactions involved in Bosch process, we develop a simulation tool based on a multiscale approach. This software allows to track the etch profile evolution versus operating conditions (pressure, power, flow rate, reactor diameter and height). Kinetic model provides space-avergaed values of plasma paramters at steady state. Sheath model determines ion energy and angular distribution functions. Surface model manages these data to know temporal evolution of a representative feature into the substrate surface exposed to Bosch process. To validate the model, we carried out some experiments at IMN, dedicated to plasma phase measurements, and at STMicroelectronics Tours, dedicated to the study of the influence of theoperating conditions on the etch profile evolution
18

Sinfort, Carole. "Couplage entre recherche expérimentale et modélisation pour l'optimisation des procédés de pulvérisation agricole." Habilitation à diriger des recherches, Université Montpellier II - Sciences et Techniques du Languedoc, 2006. http://tel.archives-ouvertes.fr/tel-00105765.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Le travail de recherche présenté concerne l'étude des pulvérisations de produits phytosanitaires. Les études réalisées au début de ma carrière (ma thèse et les travaux qui en ont découlé) concernent le développement, la validation puis le transfert d'un modèle de calcul de la répartition des dépôts au sol, pour des pulvérisateurs à rampe. Ce travail a servi de base à la définition des méthodologies mises en place par la suite.
L'étude de la pénétration de la pulvérisation dans la vigne a ensuite été étudié. Un modèle a été développé à l'aide d'outils commerciaux de CFD pour la représentation du flux d'air dans la végétation et le calcul de trajectoires représentatives de gouttes. Le modèle a été paramétré à partir de mesures de vitesses d'air de part et d'autre de la canopée. Le comportement des nuages de gouttes et la proportion de produit retenue par le feuillage a été développé de manière plus détaillée : le modèle s'appuie sur un coefficient d'efficacité obtenu à partir d'autres simulations. Ces simulations ont été conçues de manière à permettre une
validation expérimentale. Les mesures de dépôt réalisées en conditions réelles ont ensuite permis de discuter des résultats du modèle global ainsi que des limites de l'approche.
Enfin des contaminations atmosphériques pendant les applications ont fait l'objet d'une démarche expérimentale pour mettre en évidence les relations entre les variables météorologiques, les paramètres-machine et les émissions de pesticide. L'analyse par des systèmes d'inférence floue ont débouché sur une proposition d'outil d'expertise. Un modèle dédié a par ailleurs été développé pour simuler les quantités émises ainsi que leur dispersion atmosphérique.
19

Casagranda, Stefano. "Modélisation, analyse et réduction des systèmes biologiques." Thesis, Université Côte d'Azur (ComUE), 2017. http://www.theses.fr/2017AZUR4049/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Cette thèse porte sur la modélisation, l'analyse et la réduction de modèles biologiques, notamment de réseaux de régulation génique chez la bactérie E. coli. Différentes approches mathématiques sont utilisées. Dans la 1ère partie de la thèse, on modélise, analyse et réduit avec des outils classiques un modèle de transcription-traduction de grande dimension de l'ARN polymérase (RNAP) chez E. coli. Dans la 2de partie, l'introduction d'une nouvelle méthode appelée Analyse de Processus Principaux (PPA) nous permet d'analyser des modèles de haute dimension, en les décomposant en processus biologiques dont l'activité est évaluée pendant l'évolution du système. L'exclusion des processus inactifs réduit la dynamique du modèle à ses principaux mécanismes. La méthode est appliquée à des modèles d'horloge circadienne, de toxicologie endocrine et de voie de signalisation ; on teste également sa robustesse aux variations des conditions initiales et des paramètres. Dans la 3ème partie, on présente un modèle ODE de la machinerie d'expression génique de cellules d'E. coli dont la croissance est contrôlée par un inducteur de la synthèse de RNAP. On décrit notre contribution au développement du modèle et analyse par PPA les mécanismes essentiels du réseau de régulation. Dans une dernière partie, on modélise spécifiquement la réponse de RNAP à l'ajout d'inducteur et estime les paramètres du modèle à partir de données de cellules individuelles. On discute l'importance de considérer la variabilité entre cellules pour modéliser ce processus : ainsi, la moyenne des calibrations sur chaque cellule apparaît mieux représenter les données moyennes observées que la calibration de la cellule moyenne
This thesis deals with modeling, analysis and reduction of various biological models, with a focus on gene regulatory networks in the bacterium E. coli. Different mathematical approaches are used. In the first part of the thesis, we model, analyze and reduce, using classical tools, a high-dimensional transcription-translation model of RNA polymerase in E. coli. In the second part, we introduce a novel method called Principal Process Analysis (PPA) that allows the analysis of high-dimensional models, by decomposing them into biologically meaningful processes, whose activity or inactivity is evaluated during the time evolution of the system. Exclusion of processes that are always inactive, and inactive in one or several time windows, allows to reduce the complex dynamics of the model to its core mechanisms. The method is applied to models of circadian clock, endocrine toxicology and signaling pathway; its robustness with respect to variations of the initial conditions and parameter values is also tested. In the third part, we present an ODE model of the gene expression machinery of E. coli cells, whose growth is controlled by an external inducer acting on the synthesis of RNA polymerase. We describe our contribution to the design of the model and analyze with PPA the core mechanisms of the regulatory network. In the last part, we specifically model the response of RNA polymerase to the addition of external inducer and estimate model parameters from single-cell data. We discuss the importance of considering cell-to-cell variability for modeling this process: we show that the mean of single-cell fits represents the observed average data better than an average-cell fit
20

Charpentier, Frédéric. "Maîtrise du processus de modélisation géométrique et physique en conception mécanique." Phd thesis, Université Sciences et Technologies - Bordeaux I, 2014. http://tel.archives-ouvertes.fr/tel-01016665.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
La conception de produits a pour objectif de définir techniquement un produit en satisfaisant les besoins de l'ensemble des clients du cycle de vie du produit. Les enjeux industriels conduisent à développer des modèles et des outils d'aide à la conception afin de répondre aux besoins clients tout en optimisant le triptyque coût-qualité délais. L'objectif de cette thèse est de proposer une vision globale permettant d'appréhender les différents types de modélisation. Pour atteindre cet objectif, une analyse globale de ces notions est nécessaire afin d'obtenir une représentation commune du système pour les différentes activités de conception et de simulation. L'intérêt de cette approche est de pouvoir mettre en évidence les dépendances et les relations entre ces activités. Cette approche doit permettre d'appréhender les différents niveaux de détails (systémique) lors de la décomposition fonctionnelle et structurelle du produit. Elle doit également permettre de suivre l'élaboration des modèles physiques pour la simulation. Nous proposons une traçabilité du processus de conception et du processus de modélisation permettant de remettre en cause, le cas échéant, les choix de conception et les hypothèses de modélisation. Ce travail est fondé sur des concepts de GeoSpelling comme le " skin modèle ", les opérations et les propriétés. Ils sont enrichis d'autres concepts comme les modèles finis et infinis et les modèles primitif et de simulation.
21

Chamroukhi, Faicel. "Hidden process regression for curve modeling, classification and tracking." Compiègne, 2010. http://www.theses.fr/2010COMP1911.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Cette thèse s'est focalisée sur l'analyse de courbes à changements de régime. Nous proposons de nouvelles approches probabilistes génératives pour modéliser, classer et suivre temporellement de telles courbes. Le premier volet de la thèse concerne la modélisation et la classification (supervisée ou non) d'un ensemble de courbes indépendantes. Les approches proposées dans ce cadre, qui peuvent être appliquées aussi bien à une courbe qu'à un ensemble de courbes, reposent sur un modèle de régression spécifique incorporant un processus caché s'adaptant aussi bien à des changements de régimes brusques qu'à des changements lents. Le second volet de la thèse concerne la modélisation dynamique d'une séquence de courbes à changements de régime. Nous proposons pour cela des modèles autorégressifs intégrant eux même un processus caché et dont l'apprentissage est réalisé à la fois en mode "hors ligne", quand les courbes sont stockées à l'avance, et en mode "en ligne", quand les courbes arrivent au fur et à mesure au cours du temps. Le volet applicatif de la thèse concerne le diagnostic et le suivi d'état de fonctionnement du mécanisme d'aiguillage des rails qui est un organe impactant considérablement la disponibilité du réseau ferroviaire. Sa surveillance est essentielle pour mieux planifier les actions de maintenance. Les données disponibles pour réaliser cette tâche sont les courbes de puissance électrique acquises lors des manœuvres d'aiguillage, qui ont notamment la particularité de présenter des changements de régime. Les résultats obtenus sur des courbes simulées et des courbes acquises lors de manœuvres d'aiguillage illustrent l'utilité pratique des approches introduites dans cette thèse
This research addresses the problem of diagnosis and monitoring for predictive maintenance of the railway infrastructure. In particular, the switch mechanism is a vital organ because its operating state directly impacts the overall safety of the railway system and its proper functioning is required for the full availability of the transportation system; monitoring it is a key task within maintenance team actions. To monitor and diagnose the switch mechanism, the main available data are curves of electric power acquired during several switch operations. This study therefore focuses on modeling curve-valued or functional data presenting regime changes. In this thesis we propose new probabilistic generative machine learning methodologies for curve modeling, classification, clustering and tracking. First, the models we propose for a single curve or independent sets of curves are based on specific regression models incorporating a flexible hidden process. They are able to capture non-stationary (dynamic) behavior within the curves and address the problem of missing information regarding the underlying regimes, and the problem of complex shaped classes. We then propose dynamic models for learning from curve sequences to make decision and prediction over time. The developed approaches rely on autoregressive dynamic models governed by hidden processes. The learning of the models is performed in both a batch mode (in which the curves are stored in advance) and an online mode as the learning proceeds (in which the curves are analyzed one at a time). The obtained results on both simulated curves and the real world switch operation curves demonstrate the practical use of the ideas introduced in this thesis
22

Ayad, Sarah. "Business Process Models Quality : evaluation and improvement." Thesis, Paris, CNAM, 2013. http://www.theses.fr/2013CNAM0922/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
La problématique scientifique abordée correspond à la modélisation et à l'amélioration des processus métiers. Ce problème est d'un intérêt croissant pour les entreprises qui prennent conscience de l'impact indéniable que peuvent avoir une meilleure compréhension et une meilleure gestion des processus métiers (PM) sur l'efficacité, la cohérence et la transparence de leurs activités. Le travail envisagé dans le cadre de la thèse vise à proposer une méthode et un outil pour mesurer et améliorer la qualité des modèles de processus métier. L’originalité de l’approche est qu’elle vise non seulement la qualité syntaxique mais aussi la qualité sémantique et pragmatique en s’appuyant notamment sur les connaissances du domaine
In recent years the problems related to modeling and improving business processes have been of growing interest. Indeed, companies are realizing the undeniable impact of a better understanding and management of business processes (BP) on the effectiveness, consistency, and transparency of their business operations. BP modeling aims at a better understanding of processes, allowing deciders to achieve strategic goals of the company. However, inexperienced systems analysts often lack domain knowledge leading and this affects the quality of models they produce.Our approach targets the problem related to business process modeling quality by proposing an approach encompassing methods and tools for business process (BP) models quality measurement and improvement. We propose to support this modeling effort with an approach that uses domain knowledge to improve the semantic quality of BP models.The main contribution of this thesis is fourfold:1. Exploiting the IS domain knowledge: A business process metamodel is identified.Semantics are added to the metamodel by the mean of OCL constraints.2. Exploiting the application domain knowledge. It relies on domain ontologies. Alignment between the concepts of both metamodels is defined and illustrated.3. Designing of the guided quality process encompassing methods and techniques to evaluate and improve the business process models. Our process propose many quality constraints and metrics in order to evaluat the quality of the models and finally the process propose relevant recommendations for improvement.4. Development of a software prototype “BPM-Quality”. Our prototype implements all theabove mentioned artifacts and proposes a workflow enabling its users to evaluate andimprove CMs efficiently and effectively.We conducted a survey to validate the selection of the quality constraints through a first experience and also conducted a second experiment to evaluate the efficacy and efficiency of our overall approach and proposed improvements
23

Rey, Clément. "Étude et modélisation des équations différentielles stochastiques." Thesis, Paris Est, 2015. http://www.theses.fr/2015PESC1177/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Durant les dernières décennies, l'essor des moyens technologiques et particulièrement informatiques a permis l'émergence de la mise en œuvre de méthodes numériques pour l'approximation d'Equations Différentielles Stochastiques (EDS) ainsi que pour l'estimation de leurs paramètres. Cette thèse aborde ces deux aspects et s'intéresse plus spécifiquement à l'efficacité de ces méthodes. La première partie sera consacrée à l'approximation d'EDS par schéma numérique tandis que la deuxième partie traite l'estimation de paramètres. Dans un premier temps, nous étudions des schémas d'approximation pour les EDSs. On suppose que ces schémas sont définis sur une grille de temps de taille $n$. On dira que le schéma $X^n$ converge faiblement vers la diffusion $X$ avec ordre $h in mathbb{N}$ si pour tout $T>0$, $vert mathbb{E}[f(X_T)-f(X_T^n)] vertleqslant C_f /n^h$. Jusqu'à maintenant, sauf dans certains cas particulier (schémas d'Euler et de Ninomiya Victoir), les recherches sur le sujet imposent que $C_f$ dépende de la norme infini de $f$ mais aussi de ses dérivées. En d'autres termes $C_f =C sum_{vert alpha vert leqslant q} Vert partial_{alpha} f Vert_{ infty}$. Notre objectif est de montrer que si le schéma converge faiblement avec ordre $h$ pour un tel $C_f$, alors, sous des hypothèses de non dégénérescence et de régularité des coefficients, on peut obtenir le même résultat avec $C_f=C Vert f Vert_{infty}$. Ainsi, on prouve qu'il est possible d'estimer $mathbb{E}[f(X_T)]$ pour $f$ mesurable et bornée. On dit alors que le schéma converge en variation totale vers la diffusion avec ordre $h$. On prouve aussi qu'il est possible d'approximer la densité de $X_T$ et ses dérivées par celle $X_T^n$. Afin d'obtenir ce résultat, nous emploierons une méthode de calcul de Malliavin adaptatif basée sur les variables aléatoires utilisées dans le schéma. L'intérêt de notre approche repose sur le fait que l'on ne traite pas le cas d'un schéma particulier. Ainsi notre résultat s'applique aussi bien aux schémas d'Euler ($h=1$) que de Ninomiya Victoir ($h=2$) mais aussi à un ensemble générique de schémas. De plus les variables aléatoires utilisées dans le schéma n'ont pas de lois de probabilité imposées mais appartiennent à un ensemble de lois ce qui conduit à considérer notre résultat comme un principe d'invariance. On illustrera également ce résultat dans le cas d'un schéma d'ordre 3 pour les EDSs unidimensionnelles. La deuxième partie de cette thèse traite le sujet de l'estimation des paramètres d'une EDS. Ici, on va se placer dans le cas particulier de l'Estimateur du Maximum de Vraisemblance (EMV) des paramètres qui apparaissent dans le modèle matriciel de Wishart. Ce processus est la version multi-dimensionnelle du processus de Cox Ingersoll Ross (CIR) et a pour particularité la présence de la fonction racine carrée dans le coefficient de diffusion. Ainsi ce modèle permet de généraliser le modèle d'Heston au cas d'une covariance locale. Dans cette thèse nous construisons l'EMV des paramètres du Wishart. On donne également la vitesse de convergence et la loi limite pour le cas ergodique ainsi que pour certains cas non ergodiques. Afin de prouver ces convergences, nous emploierons diverses méthodes, en l'occurrence : les théorèmes ergodiques, des méthodes de changement de temps, ou l'étude de la transformée de Laplace jointe du Wishart et de sa moyenne. De plus, dans dernière cette étude, on étend le domaine de définition de cette transformée jointe
The development of technology and computer science in the last decades, has led the emergence of numerical methods for the approximation of Stochastic Differential Equations (SDE) and for the estimation of their parameters. This thesis treats both of these two aspects. In particular, we study the effectiveness of those methods. The first part will be devoted to SDE's approximation by numerical schemes while the second part will deal with the estimation of the parameters of the Wishart process. First, we focus on approximation schemes for SDE's. We will treat schemes which are defined on a time grid with size $n$. We say that the scheme $ X^n $ converges weakly to the diffusion $ X $, with order $ h in mathbb{N} $, if for every $ T> 0 $, $ vert mathbb{E} [f (X_T) -f (X_T^n)]vert leqslant C_f / h^n $. Until now, except in some particular cases (Euler and Victoir Ninomiya schemes), researches on this topic require that $ C_f$ depends on the supremum norm of $ f $ as well as its derivatives. In other words $C_f =C sum_{vert alpha vert leqslant q} Vert partial_{alpha} f Vert_{ infty}$. Our goal is to show that, if the scheme converges weakly with order $ h $ for such $C_f$, then, under non degeneracy and regularity assumptions, we can obtain the same result with $ C_f=C Vert f Vert_{infty}$. We are thus able to estimate $mathbb{E} [f (X_T)]$ for a bounded and measurable function $f$. We will say that the scheme converges for the total variation distance, with rate $h$. We will also prove that the density of $X^n_T$ and its derivatives converge toward the ones of $X_T$. The proof of those results relies on a variant of the Malliavin calculus based on the noise of the random variable involved in the scheme. The great benefit of our approach is that it does not treat the case of a particular scheme and it can be used for many schemes. For instance, our result applies to both Euler $(h = 1)$ and Ninomiya Victoir $(h = 2)$ schemes. Furthermore, the random variables used in this set of schemes do not have a particular distribution law but belong to a set of laws. This leads to consider our result as an invariance principle as well. Finally, we will also illustrate this result for a third weak order scheme for one dimensional SDE's. The second part of this thesis deals with the topic of SDE's parameter estimation. More particularly, we will study the Maximum Likelihood Estimator (MLE) of the parameters that appear in the matrix model of Wishart. This process is the multi-dimensional version of the Cox Ingersoll Ross (CIR) process. Its specificity relies on the square root term which appears in the diffusion coefficient. Using those processes, it is possible to generalize the Heston model for the case of a local covariance. This thesis provides the calculation of the EMV of the parameters of the Wishart process. It also gives the speed of convergence and the limit laws for the ergodic cases and for some non-ergodic case. In order to obtain those results, we will use various methods, namely: the ergodic theorems, time change methods or the study of the joint Laplace transform of the Wishart process together with its average process. Moreover, in this latter study, we extend the domain of definition of this joint Laplace transform
24

Etchegaray, Christèle. "Modélisation mathématique et numérique de la migration cellulaire." Thesis, Université Paris-Saclay (ComUE), 2016. http://www.theses.fr/2016SACLS428/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les déplacements cellulaires, collectifs ou individuels, sont essentiels pour assurer des fonctions fondamentales de l'organisme (réponse immunitaire, morphogenèse), mais jouent également un rôle crucial dans le développement de certaines pathologies (invasion métastatique).Les processus cellulaires à l'origine du déplacement forment une activité complexe, auto-organisée et fortement multi-échelle en temps mais aussi en espace. Mettre en évidence des principes généraux de la migration est donc un enjeu majeur. Dans cette thèse, nous nous intéressons à la construction de modèles de migration individuelle qui prennent en compte ce caractère multi-échelle de manière minimale.Dans une première partie, nous nous intéressons à des modèles particulaires. Nous décrivons des processus intracellulaires clés de la migration de manière discrète au moyen de processus de population. Puis, par une renormalisation en grand nombre d'individus, taille infinitésimale et dynamique accélérée, nous obtenons des équations de dynamique continue et stochastique, permettant de faire le lien entre la dynamique intracellulaire et le déplacement macroscopique.Nous nous confrontons d'abord à la situation d'un leucocyte se déplaçant dans une artère, et développant des liaisons de différentes natures avec les molécules de la paroi, jusqu'à éventuellement s'arrêter. La dynamique de formation de liaisons est décrite par un processus stochastique de type Naissance et Mort avec Immigration. Ces liaisons correspondent à des forces de résistance au mouvement. Nous obtenons explicitement le temps d'arrêt moyen de la cellule.Puis, nous nous intéressons à la reptation cellulaire, qui se produit grâce à la formation d'excroissances au bord de la cellule, appelées protrusions, qui avancent sur le substrat et exercent des forces de traction. Nous modélisons cette dynamique au moyen d'un processus de population structurée par l'orientation de la protrusion. Le modèle continu limite obtenu peut être étudié pour la migration 1D, et donne lieu à une équation de Fokker-Planck sur la distribution de probabilité de la population de protrusion. L'étude d'une configuration stationnaire permet de mettre en avant une dichotomie entre un état non motile et un état de déplacement directionnel.Dans une seconde partie, nous construisons un modèle déterministe minimal de migration dans un domaine discoïdal non déformable. Nous nous basons sur l'idée selon laquelle les structures responsables de la migration renforcent la polarisation de la cellule, ce qui favorise en retour un déplacement directionnel. Cette boucle positive passe par le transport d'un marqueur moléculaire dont la répartition inhomogène caractérise un état polarisé.Le modèle comporte un problème de convection-diffusion sur la concentration en marqueur, où le champs d'advection correspond à la vitesse d'un fluide de Darcy modélisant le cytosquelette. Son caractère actif est porté par des termes de bord, ce qui fait l'originalité du modèle.Du point de vue analytique, le modèle 1D présente une dichotomie face à une masse critique. Dans les cas sous-critique et critique, il est possible de montrer l'existence globale de solutions faibles, ainsi que la convergence à taux explicite vers l'unique état stationnaire correspondant à un état non polarisé. Au delà de la masse critique et pour des masses intermédiaires, nous mettons en évidence deux états stationnaires supplémentaires correspondant à des profils polarisés. De plus, pour des conditions initiales assez asymétrique, nous démontrons l'apparition d'un blow-up en temps fini.Du point de vue numérique, des tests numériques en 2D sont effectués en volumes finis (Matlab) et éléments finis (FreeFem++). Ils permettent de mettre en évidence à nouveau des états motiles et non motiles. L'effet de perturbations stochastiques est étudié, permettant d'aborder des cas de réponse à des signaux extérieurs chimique (chimiotactisme) ou mécanique (obstacle)
Collective or individual cell displacements are essential in fundamental physiological processes (immune response, embryogenesis) as well as in pathological developments (tumor metastasis). The intracellular processes responsible for cell motion have a complex self-organized activity spanning different time and space scales. Highlighting general principles of migration is therefore a challenging task.In a first part, we build stochastic particular models of migration. To do so, we describe key intracellular processes as discrete in space by using stochastic population models. Then, by a renormalization in large population, infinitesimal size and accelerated dynamics, we obtain continuous stochastic equations for the dynamics of interest, allowing a relation between the intracellular dynamics and the macroscopic displacement.First, we study the case of a leukocyte carried by the blood flow and developing adhesive bonds with the artery wall, until an eventual stop. The binding dynamics is described by a stochastic Birth and Death with Immigration process. These bonds correspond to resistive forces to the motion. We obtain explicitly the mean stopping time of the cell.Then, we study the case of cell crawling, that happens by the formation of protrusions on the cell edge, that grow on the substrate and exert traction forces. We describe this dynamics by a structured population process, where the structure comes from the protrusions' orientations. The limiting continuous model can be analytically studied in the 1D migration case, and gives rise to a Fokker-Planck equation on the probability distribution for the protrusion density. For a stationary profile, we can show the existence of a dichotomy between a non motile state and a directional displacement state.In a second part, we build a deterministic minimal migration model in a discoïdal cell domain. We base our work on the idea such that the structures responsible for migration also reinforce cell polarisation, which favors in return a directional displacement. This positive feedback loop involves the convection of a molecular marker, whose inhomogeneous spatial repartition is characteristic of a polarised state.The model writes as a convection-diffusion problem for the marker's concentration, where the advection field is the velocity field of the Darcy fluid that describes the cytoskeleton. Its active character is carried by boundary terms, which makes the originality of the model.From the analytical point of vue, the 1D model shows a dichotomy depending on a critical mass for the marker. In the subcritical and critical cases, it is possible to show global existence of weak solutions, as well as a rate-explicit convergence of the solution towards the unique stationary profile, corresponding to a non-motile state. Above the critical mass, for intermediate values, we show the existence of two additional stationary solutions corresponding to polarised motile profiles. Moreover, for asymmetric enough initial profiles, we show the finite time apparition of a blowup.Studying a more complex model involving activation of the marker at the cell membrane permits to get rid of this singularity.From the numerical point of vue, numerical experiments are led in 2D either in finite volumes (Matlab) or finite elements (FreeFem++) discretizations. They allow to show both motile and non motile profiles. The effect of stochastic fluctuations in time and space are studied, leading to numerical simulations of cases of responses to an external signal, either chemical (chemotaxis) or mechanical (obstacles)
25

Gahlam, Nadia. "L'entrepreneuriat durable : essai de modélisation d'un processus innovant." Thesis, Reims, 2019. http://www.theses.fr/2019REIME001/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
La notion de développement durable est aujourd’hui une préoccupation centrale des populations et des pouvoirs publics. L’entrepreneuriat durable représente une forme de réponse à cette préoccupation à travers l’intégration des normes de développement durable dans le cœur de métier de l’entreprise. Ce type d’entreprise vient répondre à des objectifs économiques, sociaux et environnementaux. La recherche en entrepreneuriat durable s’est particulièrement intéressée au profil de l’entrepreneur durable. Cependant, la recherche ne s’est pas suffisamment interrogée sur la façon dont il procède. Il est considéré comme l’agent de rupture à travers l’introduction d’éco-innovations. L’innovation apparait donc comme une solution aux problématiques sociales et environnementales. Mais ceci n’est pas suffisant pour considérer ce phénomène entrepreneurial comme une forme innovante. Cette thèse tente de combler ces manquements en modélisant, le processus entrepreneurial durable. Par ailleurs, l’emprunt d’une théorie de l’innovation « C-K Theory » permet de rapprocher le processus entrepreneurial durable du processus de conception innovante CK dans l’objectif de déterminer le caractère innovant de l’entrepreneuriat durable
The notion of sustainable development is today a central concern of the population and the public authorities. Sustainable entrepreneurship is a form of response to this concern through the integration of sustainable development standards into the core business of the company. This type of business comes to meet economic, social and environmental objectives. Sustainable entrepreneurship research has been particularly interested in the profile of the sustainable entrepreneur. However, the research did not ask enough about how it works. It is considered the breaking agent through the introduction of eco-innovations. Innovation therefore appears as a solution to social and environmental issues. But this is not enough to consider this entrepreneurial phenomenon as an innovative form. This thesis attempts to fill these gaps by modeling, the sustainable entrepreneurial process. In addition, the borrowing of a theory of innovation "C-K Theory" makes it possible to bring the sustainable entrepreneurial process closer to the CK innovative design process in order to determine the innovative nature of sustainable entrepreneurship
26

Yvinec, Romain. "Modélisation probabiliste en biologie moléculaire et cellulaire." Phd thesis, Université Claude Bernard - Lyon I, 2012. http://tel.archives-ouvertes.fr/tel-00749633.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
De nombreux travaux récents ont démontré l'importance de la stochasticité dans l'expression des gènes à différentes échelles. On passera tout d'abord en revue les principaux résultats expérimentaux pour motiver l'étude de modèles mathématiques prenant en compte des effets aléatoires. On étudiera ensuite deux modèles particuliers où les effets aléatoires induisent des comportements intéressants, en lien avec des résultats expérimentaux: une dynamique intermittente dans un modèle d'auto-régulation de l'expression d'un gène; et l'émergence d'hétérogénéité à partir d'une population homogène de protéines par modification post-traductionnelle.\\ Dans le Chapitre I, nous avons étudié le modèle standard d'expression des gènes à trois variables: ADN, ARN messager et protéine. L'ADN peut être dans deux états, respectivement ''ON'' et ''OFF''. La transcription (production d'ARN messagers) peut avoir lieu uniquement dans l'état ''ON''. La traduction (production de protéines) est proportionnelle à la quantité d'ARN messager. Enfin la quantité de protéines peut réguler de manière non-linéaire les taux de production précédent. Nous avons utilisé des théorèmes de convergence de processus stochastique pour mettre en évidence différents régimes de ce modèle. Nous avons ainsi prouvé rigoureusement le phénomène de production intermittente d'ARN messagers et/ou de protéines. Les modèles limites obtenues sont alors des modèles hybrides, déterministes par morceaux avec sauts Markoviens. Nous avons étudié le comportement en temps long de ces modèles et prouvé la convergence vers des solutions stationnaires. Enfin, nous avons étudié en détail un modèle réduit, calculé explicitement la solution stationnaire, et étudié le diagramme de bifurcation des densités stationnaires. Ceci a permis 1) de mettre en évidence l'influence de la stochasticité en comparant aux modèles déterministes; 2) de donner en retour un moyen théorique d'estimer la fonction de régulation par un problème inverse. \\ Dans le Chapitre II, nous avons étudié une version probabiliste du modèle d'agrégation-fragmentation. Cette version permet une définition de la nucléation en accord avec les modèles biologistes pour les maladies à Prion. Pour étudier la nucléation, nous avons utilisé une version stochastique du modèle de Becker-Döring. Dans ce modèle, l'agrégation est réversible et se fait uniquement par attachement/détachement d'un monomère. Le temps de nucléation est définit comme le premier temps où un noyau (c'est-à-dire un agrégat de taille fixé, cette taille est un paramètre du modèle) est formé. Nous avons alors caractérisé la loi du temps de nucléation dans ce modèle. La distribution de probabilité du temps de nucléation peut prendre différente forme selon les valeurs de paramètres: exponentielle, bimodale, ou de type Weibull. Concernant le temps moyen de nucléation, nous avons mis en évidence deux phénomènes importants. D'une part, le temps moyen de nucléation est une fonction non-monotone du paramètre cinétique d'agrégation. D'autre part, selon la valeur des autres paramètres, le temps moyen de nucléation peut dépendre fortement ou très faiblement de la quantité initiale de monomère . Ces caractérisations sont importantes pour 1) expliquer des dépendances très faible en les conditions initiales, observées expérimentalement; 2) déduire la valeur de certains paramètres d'observations expérimentales. Cette étude peut donc être appliqué à des données biologiques. Enfin, concernant un modèle de polymérisation-fragmentation, nous avons montré un théorème limite d'un modèle purement discret vers un modèle hybride, qui peut-être plus utile pour des simulations numériques, ainsi que pour une étude théorique.
27

Boust, Bastien. "Étude expérimentale et modélisation des pertes thermiques pariétales lors de l'interaction flamme–paroi instationnaire." Phd thesis, Université de Poitiers, 2006. http://tel.archives-ouvertes.fr/tel-00116773.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Au cours de ces travaux, l'interaction flamme-paroi instationnaire a été étudiée expérimentalement en régime laminaire et turbulent, pour comprendre les phénomènes mis en jeu et fournir des données de référence pour la modélisation et la simulation. D'une part, le coincement frontal d'origine thermique a été décrit à l'aide d'un modèle basé sur un bilan d'énergie dans les gaz frais. Cette modélisation purement conductive du coincement de flamme a été confirmée par une simulation de la combustion de prémélange dans une enceinte sphérique. D'autre part, un modèle de pertes thermiques pariétales a été proposé via une approche originale de la conduction thermique, qui apparaît comme le résultat statistique du rebond des molécules de gaz sur la paroi. Développé en collaboration avec RENAULT, ce modèle validé en régime laminaire et turbulent a fait l'objet d'améliorations pour tenir compte de l'aérodynamique locale qui pilote les échanges thermiques aux parois des chambres de combustion.
28

Viprey, Fabien. "Modélisation et caractérisation des défauts de structure de machine-outil 5 axes pour la mesure in-process." Thesis, Université Paris-Saclay (ComUE), 2016. http://www.theses.fr/2016SACLN071/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Le principe de la métrologie en cours d’usinage est d'obtenir des données de mesure directement dans le flot de production. Ce principe fait suite au besoin croissant des industriels de réaliser des mesures en ligne durant une opération ou entre deux opérations d'usinage en employant le moyen de production pour mesurer la pièce usinée. La maîtrise des sources d’erreur de mesure telles que les erreurs géométriques est une condition sine qua non pour garantir la métrologie dimensionnelle traçable directement sur les machines-outils. Ces travaux portent sur la modélisation géométrique de machine-outil 5 axes, basée sur une paramétrisation normalisée des erreurs géométriques. Ce modèle est simulé et simplifié par l’utilisation d’une machine virtuelle développée comme un outil d’aide à la compréhension et à la visualisation des effets des erreurs géométriques sur l’erreur volumétrique. Un nouvel étalon matériel thermo-invariant a été développé : la Multi-Feature Bar. Raccordé à la définition internationale du mètre par un étalonnage et une intercomparaison européenne, il permet d’envisager des mesures traçables sur machine-outil dans un environnement hostile. L’identification de trois paramètres intrinsèques à cet étalon, couplée à une procédure de mesure, assure une identification complète et traçable des erreurs de mouvement d’axes linéaires. Suite à cela, l’identification des erreurs entre axes est quant à elle basée sur une analyse de combinaisons de paramètres suffisants pour caractériser au mieux l’erreur volumétrique. Une procédure d’identification des paramètres du modèle est proposée en minimisant la dérive temporelle de la structure ainsi que les effets des erreurs de mouvement précédemment identifiées. Une analyse de sensibilité des paramètres de réglages de la procédure de mesure ainsi que des effets de bruits permet de garantir la qualité de l’identification proposée
In-process metrology consists in obtaining measurement data directly into the manufacturing process. This method results from an increasing need of manufacturers to carry out on-line measurements during one manufacturing task or between two manufacturing tasks by using the mean of production to measure the machined part. Monitoring the sources of errors like geometric errors is one of the prerequisites to ensure the traceable dimensional metrology directly on the machine tool.This thesis deals with the geometric modeling of 5-axis machine tool based on a standardized parameterization of geometric errors. This model is simulated and simplified by the use of a virtual machine developed in order to help understand and visualize the effects of geometric errors on the volumetric error.A new standard thermo-invariant material namely Multi-Feature Bar has been developed.After its calibration and after a European intercomparison, it provides a direct metrological traceability to the SI meter for dimensional measurement on machine tool in a hostile environment. The identification of three intrinsic parameters of this standard, coupled with a measurement procedure ensures complete and traceable identification of motion errors of linear axes. The identification of position and orientation errors of axis is based on an analysis of combinations of necessary parameters to characterize volumetric error and at best. A model parameter identification procedure is proposed by minimizing the time drift of the structural loop and the effects of previously identified motion errors. Asensitivity analysis of the measurement procedure settings and of the noise effects ensures the quality of this proposed identification
29

Guitarra, Silvana Raquel. "Modélisation multi-échelles des mémoires de type résistives (ReRAM)." Thesis, Aix-Marseille, 2018. http://www.theses.fr/2018AIXM0537/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Un modèle de commutation de mémoires résistives (ReRAM) est présenté. Celui-ci est basé sur deux hypothèses : (1) la commutation résistive est causée par des changements qui se produisent dans la zone étroite (région active) du filament conducteur sous l'influence du champ électrique et (2) la commutation résistive est un processus stochastique, donc régi par une probabilité. La région active est représentée par un réseau de connexions verticales, chacune composée de trois éléments électriques : deux d'entre eux sont de faible résistance tandis que le troisième agit comme un disjoncteur et peut être soit de résistance faible (LR) ou élevée (HR). Dans ce modèle, le changement d'état du disjoncteur est régi par une probabilité de commutation (P$_{s}$) qui est comparée à un nombre aléatoire « p ». P$_{s}$ dépend de la chute de tension le long du disjoncteur et de la tension de seuil, V$_{set}$ ou V$_{reset}$, pour définir les processus de « set » (HR à LR) et « reset » (LR à HR). Deux mécanismes de conduction ont été envisagés : ohmique pour un état LR et pour un état de résistance élevée l'effet tunnel facilité par un piège (TAT). Le modèle a été implémenté avec le langage de programmation Python et fonctionne avec une bibliothèque C externe qui optimise les calculs et le temps de traitement. Les résultats de la simulation ont été validés avec succès en les comparant avec des courbes courant-tension (IV) mesurées sur dispositifs ReRAM réels dont l'oxyde était fait de HfO$_{2}$ et pour neuf aires différentes. La flexibilité et la facilité de mise en œuvre de ce modèle de commutation résistive en font un outil puissant pour l'étude des ReRAM
A model for the switching of resistive random-access memories (ReRAM) is presented. This model is based on two hypotheses: (1) the resistive switching is caused by changes that occur in the narrow zone (active region) of the conductive filament under the influence of the electric field and (2) the resistive switching is a stochastic process governed by a switching probability. The active region is represented by a net of vertical connections, each one composed of three electrical elements: two of them are always low resistive (LR) while the third one acts as a breaker and can be low or high resistive (HR). In the model, the change of the breaker's state is governed by a switching probability (P$_{s}$) that is compared with a random number $p$. P$_{s}$ depend on the voltage drop along the breaker and the threshold voltage, V$_{set}$ or V$_{reset}$ for set (HR to LR) or reset (LR to HR) processes. Two conduction mechanism has been proposed: ohmic for the low resistive state and trap-assisted tunneling (TAT) for the high resistive state. The model has been implemented in Python and works with an external C-library that optimizes calculations and processing time. The simulation results have been successfully validated by comparing measured and modeled IV curves of HfO$_{2}$-based ReRAM devices of nine different areas. It is important to note that the flexibility and easy implementation of this resistive switching model allow it to be a powerful tool for the design and study of ReRAM memories
30

Cao, Trong Son. "Modélisation de l’endommagement ductile sous trajets de chargement complexes." Thesis, Paris, ENMP, 2013. http://www.theses.fr/2013ENMP0038/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Ce travail de thèse vise à une meilleure compréhension et prise en compte des mécanismes d'endommagement ductile au cours des procédés de mise en forme à froid. Le tréfilage, le laminage de fils et le laminage à pas de pèlerin sont pris comme exemples d'application. Une grande attention est portée également à la méthodologie d'identification des paramètres des modèles d'endommagement implémentés. Trois approches de l'endommagement ductile ont été étudiées : des critères de rupture phénoménologique, des modèles phénoménologiques couplés et des modèles micromécaniques. Ces modèles ont été implémentés dans Forge®, et les algorithmes ont dû être adaptés à sa formulation mixte vitesse-pression et à son élément fini (P1+/P1). Parallèlement aux développements numériques, différents essais mécaniques ont été effectués sur trois matériaux différents (acier haut carbone, acier inoxydable et alliage de zirconium) pour identifier les paramètres des modèles d'écrouissage et d'endommagement. Des essais de traction in situ sous micro-tomographie aux rayons X ont été exploités pour l'identification des mécanismes d'endommagement ductile (germination, croissance et coalescence), ainsi que l'identification du modèle micromécanique. Enfin, la dernière partie de ce travail a consisté à réaliser des études comparatives de ces différents modèles d'endommagement pour les différents procédés de mise en forme et différents matériaux. Concernant le tréfilage et le laminage de l'acier inoxydable, un bon accord entre les simulations numériques et les résultats expérimentaux a été obtenu. Pour l'acier à haute teneur en carbone (perlitique), le modèle micro-mécanique GTN a donné le meilleur résultat à la fois qualitativement et quantitativement pour le tréfilage ultime. Par ailleurs, la comparaison entre les différents modèles sur différents procédés (laminage du fil avec l'acier haut carbone, laminage à pas de pèlerin avec l'alliage de zirconium) a aidé d'une part à mettre en évidence le rôle important du troisième invariant de la contrainte déviatorique sur la localisation de l'endommagement dans les procédés de mise en forme où le cisaillement est dominant. D'autre part, elle montre que le processus d'identification lui-même devrait se fonder sur la mesure de la microstructure afin de garantir un résultat précis lors de l'application aux procédés
The present PhD thesis aims at a better understanding and modeling of ductile damage mechanisms during cold forming processes, with wire drawing, rolling and cold pilgering as examples. In addition, special attention is paid to implemented damage models parameters identification methodology. All three approaches of ductile damage were investigated: uncoupled phenomenological fracture criteria; coupled phenomenological models; micromechanical model. These models have been implemented in Forge®, which required adaptation of algorithms to its mixed velocity-pressure formulation and to its finite element (P1+/P1). Parallel to the numerical work, various mechanical tests on three different materials (high carbon steel, stainless steel and zirconium alloy) were carried out for work hardening, and damage models parameters identification. In situ X-ray micro-tomography tensile tests have also been exploited for the identification of ductile damage mechanisms (nucleation, growth and coalescence) as well as the identification of micromechanical model. Finally, we carried out comparative studies of these models on our three abovementioned forming processes and materials. Regarding wire drawing and rolling of stainless steel, good agreement between numerical simulations and experimental results was found. For high carbon perlitic steel ultimate wire drawing, the GTN micro-mechanical model has given the best result, both qualitatively and quantitatively. Moreover, the comparison of the different models on different processes (wire rolling on high carbon steel, cold pilgering on zirconium alloy) highlights on the one hand the important role of the third deviatoric stress invariant in damage localization for shear-dominated forming processes. It shows on the other hand that the identification process itself should be based on microstructure measurements to provide accurate results in forming application
31

De, oliveira Hugo. "Modélisation prédictive des parcours de soins à l'aide de techniques de process mining et de deep learning." Thesis, Lyon, 2020. http://www.theses.fr/2020LYSEM021.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les bases de données médico-administratives sont des bases de données de santé particulièrement exhaustives. L’objectif de ce travail réside dans le développement d’algorithmes prédictifs à partir des données de parcours patients, considérant la complexité des données médico-administratives et produisant des résultats explicables. De nouveaux modèles de processus et un algorithme de process mining adapté sont présentés, modélisant les transitions et leurs temporalités. Une solution de prétraitement des journaux d’événements est également proposée, permettant une représentation des évènements complexes caractérisés par de multiples codes appartenant à différents systèmes de codage, organisés en structures hiérarchiques. Cette méthode de clustering par auto-encodage permet de regrouper dans l’espace latent les événements similaires et produit automatiquement des labels pertinents pour le process mining, explicables médicalement. Un premier algorithme de prédiction adapté aux parcours est alors proposé, produisant via une procédure d’optimisation un modèle de processus utilisé pour classifier les parcours directement à partir des données de journaux d’événements. Ce modèle de processus sert également de support pour expliquer les patterns de parcours distinctifs entre deux populations. Une seconde méthode de prédiction est présentée, avec un focus particulier sur les événements médicaux récurrents. En utilisant des images pour modéliser les parcours, et une architecture d’auto-encodage variationnel modifiée pour l’apprentissage prédictif, cette méthode permet de classifier tout en expliquant de manière globale, en visualisant une image des facteurs prédictifs identifiés
Initially created for a reimbursement purpose, non-clinical claim databases are exhaustive Electronic Health Records (EHRs) which are particularly valuable for evidence-based studies. The objective of this work is to develop predictive methods for patient pathways data, which leverage the complexity of non-clinical claims data and produce explainable results. Our first contribution focuses on the modeling of event logs extracted from such databases. New process models and an adapted process discovery algorithm are introduced, with the objective of accurately model characteristic transitions and time hidden in non-clinical claims data. The second contribution is a preprocessing solution to handle one complexity of such data, which is the representation of medical events by multiple codes belonging to different standard coding systems, organized in hierarchical structures. The proposed method uses auto-encoders and clustering in an adequate latent space to automatically produce relevant and explainable labels. From these contributions, an optimization-based predictive method is introduced, which uses a process model to perform binary classification from event logs and highlight distinctive patterns as a global explanation. A second predictive method is also proposed, which uses images to represent patient pathways and a modified Variational Auto-Encoders (VAE) to predict. This method globally explains predictions by showing an image of identified predictive factors which can be both frequent and infrequent
32

Mazzuca, Muriel. "Quantification par mesures directes d'émissions polluantes gazeuses de divers grands process industriels, et modélisation d'un panache réactif." Lille 1, 1998. https://pepite-depot.univ-lille.fr/LIBRE/Th_Num/1998/50376-1998-49.pdf.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
La pollution atmospherique est une des preoccupations des pouvoirs publics, de l'industrie et des scientifiques. Elle resulte des rejets gazeux des sources fixes et mobiles et de leur transformation en presence d'uv solaires. Aussi, pour interpreter les resultats experimentaux et pour definir une strategie de controle, des modeles simulant la physico-chimie atmospherique sont utilises. Ils exigent des donnees d'entrees d'emissions ayant une fine resolution spatio-temporelle. L'objectif de ce travail a ete de quantifier sur des sites industriels les emissions de precurseurs de l'ozone : les oxydes d'azote, les hydrocarbures totaux, le dioxyde de soufre et le monoxyde de carbone ainsi que le dioxyde de carbone, et l'oxygene. Les methodes d'analyses utilisees sont l'infrarouge non dispersif pour le so#2, les nox, le co et le co#2, la detection par ionisation de flamme pour les cov et la detection magneto dynamique pour l'o#2. Pour cela, nous avons ameliore les performances du laboratoire mobile, compose d'une chaine de prelevements et d'analyses en continu, en nous interessant aux interferences de mesures du so#2 et du no. Ensuite nous avons valide cette chaine par comparaison sur le terrain avec une societe certifiee iso 9002 en etalonnage - mesure. Nous avons alors effectue des campagnes de mesures dans une fabrique de boites metalliques, une usine siderurgique, une cimenterie et une usine d'incineration d'ordures menageres. De plus, nous avons tente de correler les emissions mesurees avec les etapes des procedes industriels. Nous avons ensuite modelise le devenir des polluants dans un cas precis en utilisant le reactive plume model (rpm iv) de l'us-epa afin d'illustrer l'utilisation de notre banque de donnees d'emissions. Ce modele de panache gaussien pluricellulaire permet de simuler l'evolution dans la troposphere des concentrations issues d'une source fixe. Il inclut la dispersion des polluants et leur reactivite chimique. Le mecanisme chimique est le carbon bond iv.
33

Perez, Medina Jorge Luis. "Approche Orientée Services pour la Réutilisation de Processus et d'Outils de Modélisation." Phd thesis, Grenoble, 2010. http://www.theses.fr/2010GRENM025.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Une méthode de développement de SI permet de modéliser des produits (tout artefact logiciel) en exécutant des modèles de processus. Les concepteurs sont assistés dans leurs tâches par des outils de modélisation. L'ingénierie des méthodes permet de définir des méthodes de développement en réutilisant et en assemblant des fragments de méthodes existantes. Il s'agit alors de fournir à tout concepteur l'environnement de modélisation adapté à ses nouvelles activités. L'objectif de nos recherches, est de faciliter le travail des chefs de projets et des concepteurs de modèles en les aidant dans le choix des fragments de méthodes, des modèles et des environnements de modélisation adaptés à leurs besoins. Les contributions de cette thèse s'articulent autour d'une architecture à base de services reposant sur trois niveaux d'abstraction. Le niveau intentionnel repose sur un modèle de services permettant d'expliciter les besoins des concepteurs et des chefs de projets en termes de gestion de modèles. L'accent est mis sur la modélisation des buts avec l'utilisation d'ontologies issues du domaine des systèmes d'information. Le niveau organisationnel propose un modèle de services facilitant la capitalisation et la sélection de fragments de méthodes réalisant les buts des concepteurs. Le niveau opérationnel s'appuie sur un modèle de services permettant de caractériser et de sélectionner les outils de modélisation adaptés aux fragments de méthodes. L'ensemble des propositions est accompagné de cas d'études et d'un prototype servant de support et de validation aux travaux réalisés
An Information System development methodology allows designers to model products (any software artifact) by executing process models. Designers are assisted in their tasks by modeling tools. Methods engineering permits defining development methods by reusing and assembling fragments of existing methods. The point is then to provide to designers the modeling environment adapted to his/her activities. The aim of our research is to facilitate the work of project managers and model designers by helping them in choosing methods fragments, models and modeling environments adapted to their specific needs. The contributions of this thesis concern a service-oriented architecture based on three different abstract levels. The intentional level represents the needs of model designers and project managers in terms of the models management. The emphasis is placed on the modeling goals with the use of ontologies of the information systems the domain. The organizational level proposes a model of services facilitating the capitalization and the selection of method fragments which realize the goals of the designers. The operational level relies on a model of services allowing to characterize and to select the appropriate modelling tools adapted to the methods fragment. All the proposals are illustrated by study cases and a first version of prototype for supporting and for validating the realized works
34

Perez, Medina Jorge Luis. "Approche Orientée Services pour la Réutilisation de Processus et d'Outils de Modélisation." Phd thesis, Grenoble, 2010. http://tel.archives-ouvertes.fr/tel-00493314.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Une méthode de développement de SI permet de modéliser des produits (tout artefact logiciel) en exécutant des modèles de processus. Les concepteurs sont assistés dans leurs tâches par des outils de modélisation. L'ingénierie des méthodes permet de définir des méthodes de développement en réutilisant et en assemblant des fragments de méthodes existantes. Il s'agit alors de fournir à tout concepteur l'environnement de modélisation adapté à ses nouvelles activités. L'objectif de nos recherches, est de faciliter le travail des chefs de projets et des concepteurs de modèles en les aidant dans le choix des fragments de méthodes, des modèles et des environnements de modélisation adaptés à leurs besoins. Les contributions de cette thèse s'articulent autour d'une architecture à base de services reposant sur trois niveaux d'abstraction. Le niveau intentionnel repose sur un modèle de services permettant d'expliciter les besoins des concepteurs et des chefs de projets en termes de gestion de modèles. L'accent est mis sur la modélisation des buts avec l'utilisation d'ontologies issues du domaine des systèmes d'information. Le niveau organisationnel propose un modèle de services facilitant la capitalisation et la sélection de fragments de méthodes réalisant les buts des concepteurs. Le niveau opérationnel s'appuie sur un modèle de services permettant de caractériser et de sélectionner les outils de modélisation adaptés aux fragments de méthodes. L'ensemble des propositions est accompagné de cas d'études et d'un prototype servant de support et de validation aux travaux réalisés.
35

Krebs, Stéphane. "Modélisation des propriétés thermodynamiques de solutions d'électrolytes à intérêt industriel." Phd thesis, Université Pierre et Marie Curie - Paris VI, 2006. http://tel.archives-ouvertes.fr/tel-00357703.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Le présent travail se propose de décrire les propriétés thermodynamiques des solutions d'intérêt industriel. Notre modèle s'appuie sur un travail antérieur (N. Papaiconomou et al.), combinant la théorie Mean Spherical Approximation (MSA) pour décrire les interactions électrostatiques à longue portée et le modèle NRTL (très populaire en génie chimique), pour celles qui sont à courte portée. Par rapport à ce précédent travail, nous avons de plus pris en compte l'effet de solvatation ionique, à l'aide de deux modèles différents : (a) celui de Stokes et Robinson impliquant un nombre de solvatation constant (en fonction de la concentration du sel) ; (b) une solution procédant d'équilibre réactionnels avec les molécules d'eau, résultant en un degré de solvatation variant avec la concentration de sel. De plus, nous avons cherché à décrire les équilibres L-V pour des solutions aqueuses et de mélanges de solvants, pour des températures allant de 25°C à 100°C.
36

Al, Haddad Mazen. "Contribution théorique et modélisation des phénomènes instantanés dans les opérations d'autovaporisation et de déshydratation." Phd thesis, Université de La Rochelle, 2007. http://tel.archives-ouvertes.fr/tel-00399138.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
L'autovaporisation instantanée, en tant que processus fondamental, est corrélée à une variation abrupte des conditions thermodynamiques du milieu environnant en deçà de la saturation du liquide. Pendant l'autovaporisation, aucun transfert de chaleur entre le matériau et le milieu extérieur n'a alors lieu vu la courte durée du processus ; la quantité de chaleur nécessaire à l'évaporation de l'eau est récupérée uniquement au sein même de la matière qui voit sa température baisser d'une façon significative. De nombreuses opérations et expérimentations réalisées telles que le BLEVE (Boiling Liquid Expanding Vapor Explosion), le LOCA (Loss Of Coolant Accident), le WFEC (Water Flash Evaporation Cooling), le CSC (Cryogen Spray Cooling), la DIC (Détente Instantanée Contrôlée),... impliquent l'autovaporisation. Aucune étude « générale » n'a été établie. Pourtant, le dépassement de l'état d'équilibre quasi-statique, température et quantité (ou débit) d'eau vaporisée prévues, remet en question le deuxième principe au plan de l'étape intermédiaire... Le deuxième principe reste applicable dès que l'équilibre est atteint. En effet, malgré les nombreuses applications aucune étude thermodynamique classique n'a pu expliquer les phénomènes observés ; seule l'analyse théorique spécifique aux phénomènes d'instantanéité proposée par ALLAF en 2002, sera à la base de l'explication et l'étude de ce type d'autovaporisation. Nous allons à travers cette étude, expliquer et prouver la pertinence de cette analyse théorique dans le cas de quelques phénomènes thermodynamiques « instantanés ».
37

Huynh, Ngoc Tho. "A development process for building adaptative software architectures." Thesis, Ecole nationale supérieure Mines-Télécom Atlantique Bretagne Pays de la Loire, 2017. http://www.theses.fr/2017IMTA0026/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les logiciels adaptatifs sont une classe de logiciels qui peuvent modifier leur structure et comportement à l'exécution afin de s'adapter à des nouveaux contextes d'exécution. Le développement de logiciels adaptatifs a été un domaine de recherche très actif les dix dernières années. Plusieurs approches utilisent des techniques issues des lignes des produits afin de développer de tels logiciels. Ils proposent des outils, des frameworks, ou des langages pour construire des architectures logicielles adaptatives, mais ne guident pas les ingénieurs dans leur utilisation. De plus, ils supposent que tous les éléments spécifiés à la conception sont disponibles dans l'architecture pour l'adaptation, même s'ils ne seront jamais utilisés. Ces éléments inutiles peuvent être une cause de soucis lors du déploiement sur une cible dont l'espace mémoire est très contraint par exemple. Par ailleurs, le remplacement de composants à l'exécution reste une tâche complexe, elle doit assurer non seulement la validité de la nouvelle version, mais aussi préserver la terminaison correcte des transactions en cours. Pour faire face à ces problèmes, cette thèse propose un processus de développement de logiciels adaptatifs où les tâches, les rôles, et les artefacts associés sont explicites. En particulier, le processus vise la spécification d'informations nécessaires pour construire des architectures logicielles adaptatives. Le résultat d'un tel processus est une architecture logicielle adaptative qui contient seulement des éléments utiles pour l'adaptation. De plus, un mécanisme d'adaptation est proposé basé sur la gestion de transactions pour assurer une adaptation dynamique cohérente. Elle assure la terminaison correcte des transactions en cours. Nous proposons pour cela la notion de dépendance transactionnelle : dépendance entre des actions réalisées par des composants différents. Nous proposons la spécification de ces dépendances dans le modèle de variabilité, et de l'exploiter pour décider des fonctions de contrôle dans les composants de l'architecture, des fonctions qui assurent une adaptation cohérente à l'exécution
Adaptive software is a class of software which is able to modify its own internal structure and hence its behavior at runtime in response to changes in its operating environment. Adaptive software development has been an emerging research area of software engineering in the last decade. Many existing approaches use techniques issued from software product lines (SPLs) to develop adaptive software architectures. They propose tools, frameworks or languages to build adaptive software architectures but do not guide developers on the process of using them. Moreover, they suppose that all elements in the SPL specified are available in the architecture for adaptation. Therefore, the adaptive software architecture may embed unnecessary elements (components that will never be used) thus limiting the possible deployment targets. On the other hand, the components replacement at runtime remains a complex task since it must ensure the validity of the new version, in addition to preserving the correct completion of ongoing activities. To cope with these issues, this thesis proposes an adaptive software development process where tasks, roles, and associate artifacts are explicit. The process aims at specifying the necessary information for building adaptive software architectures. The result of such process is an adaptive software architecture that only contains necessary elements for adaptation. On the other hand, an adaptation mechanism is proposed based on transactions management for ensuring consistent dynamic adaptation. Such adaptation must guarantee the system state and ensure the correct completion of ongoing transactions. In particular, transactional dependencies are specified at design time in the variability model. Then, based on such dependencies, components in the architecture include the necessary mechanisms to manage transactions at runtime consistently
38

Trouvilliez, Alexandre. "Observations et modélisation de la neige soufflée en Antarctique." Phd thesis, Université de Grenoble, 2013. http://tel.archives-ouvertes.fr/tel-01072241.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
L'augmentation de l'accumulation de neige simulée en Antarctique de l'Est pour le siècle à venir est une contribution négative à la hausse du niveau moyen des mers. Les modèles climatiques simulant cette augmentation ne possèdent pas de paramétrisation du transport éolien de neige or ce dernier joue un rôle primordial sur l'accumulation d'après les observations. Les modèles climatiques régionaux possédant une paramétrisation du transport éolien permettent d'estimer l'incertitude des modèles climatiques sur la hausse du niveau moyen des mers en ne représentant pas ce processus. Cependant aucune donnée de transport ne permet une validation précise de ces modèles en Antarctique. Dans ce contexte, cette thèse décrit la constitution d'une base de données de transport éolien de neige en Antarctique ainsi qu'une validation d'un modèle climatique régional incluant le transport éolien de neige. Un instrument acoustique, le FlowCapt, a été choisi pour acquérir les données. Une comparaison avec un appareil de mesure optique du transport, le Snow Particle Counter, a été menée dans les Alpes françaises. Cette comparaison a permis de déterminer les limites des deux générations de FlowCapt existantes pour la détection des événements de transport et la quantification du flux de neige. Une base de données de trois années a été acquise en Terre Adélie, Antarctique, pour permettre une comparaison avec un modèle climatique régional. Elle a permis de calculer la hauteur de rugosité et la vitesse de frottement seuil avec leurs incertitudes. Les épisodes de transport éolien de neige et une borne inférieure de la quantité de neige déplacée en un point ont été estimés. Deux comparaisons ont été menées avec le Modèle Atmosphérique Régional, un modèle climatique régional incluant de nombreuses rétroactions du transport sur l'écoulement. Les deux simulations utilisées pour les comparaisons ont été faites sur un petit domaine à fine échelle sur une période d'un mois. Le modèle simule bien les épisodes de transport sauf lorsque de la fonte s'est produite juste avant un épisode ou lorsque les épisodes ont une hauteur maximale de transport inférieure à cinquante centimètres. Le modèle sous-estime les quantités de neige transportée.
39

Guitarra, Silvana Raquel. "Modélisation multi-échelles des mémoires de type résistives (ReRAM)." Electronic Thesis or Diss., Aix-Marseille, 2018. http://theses.univ-amu.fr.lama.univ-amu.fr/181210_GUITARRA_584ohbsor62rwx899lsxvt26qyx_TH.pdf.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Un modèle de commutation de mémoires résistives (ReRAM) est présenté. Celui-ci est basé sur deux hypothèses : (1) la commutation résistive est causée par des changements qui se produisent dans la zone étroite (région active) du filament conducteur sous l'influence du champ électrique et (2) la commutation résistive est un processus stochastique, donc régi par une probabilité. La région active est représentée par un réseau de connexions verticales, chacune composée de trois éléments électriques : deux d'entre eux sont de faible résistance tandis que le troisième agit comme un disjoncteur et peut être soit de résistance faible (LR) ou élevée (HR). Dans ce modèle, le changement d'état du disjoncteur est régi par une probabilité de commutation (Ps) qui est comparée à un nombre aléatoire « p ». Ps dépend de la chute de tension le long du disjoncteur et de la tension de seuil, V_{set} ou V_{reset}, pour définir les processus de « set » (HR à LR) et « reset » (LR à HR). Deux mécanismes de conduction ont été envisagés : ohmique pour un état LR et pour un état de résistance élevée l'effet tunnel facilité par un piège (TAT). Le modèle a été implémenté avec le langage de programmation Python et fonctionne avec une bibliothèque C externe qui optimise les calculs et le temps de traitement. Les résultats de la simulation ont été validés avec succès en les comparant avec des courbes courant-tension (IV) mesurées sur dispositifs ReRAM réels dont l'oxyde était fait de HfO₂ et pour neuf aires différentes. La flexibilité et la facilité de mise en œuvre de ce modèle de commutation résistive en font un outil puissant pour l'étude des ReRAM
A model for the switching of resistive random-access memories (ReRAM) is presented. This model is based on two hypotheses: (1) the resistive switching is caused by changes that occur in the narrow zone (active region) of the conductive filament under the influence of the electric field and (2) the resistive switching is a stochastic process governed by a switching probability. The active region is represented by a net of vertical connections, each one composed of three electrical elements: two of them are always low resistive (LR) while the third one acts as a breaker and can be low or high resistive (HR). In the model, the change of the breaker's state is governed by a switching probability (Ps) that is compared with a random number p. Ps depend on the voltage drop along the breaker and the threshold voltage, V_{set} or V_{reset} for set (HR to LR) or reset (LR to HR) processes. Two conduction mechanism has been proposed: ohmic for the low resistive state and trap-assisted tunneling (TAT) for the high resistive state. The model has been implemented in Python and works with an external C-library that optimizes calculations and processing time. The simulation results have been successfully validated by comparing measured and modeled IV curves of HfO₂-based ReRAM devices of nine different areas. It is important to note that the flexibility and easy implementation of this resistive switching model allow it to be a powerful tool for the design and study of ReRAM memories
40

Marin, Gallego Mylene. "Valorisation chimique des condensats issus de la torréfaction de biomasses : modélisation thermodynamique, conception et analyse des procédés." Thesis, Toulouse, INPT, 2015. http://www.theses.fr/2015INPT0131.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
La biomasse lignocellulosique est considérée comme une ressource de carbone renouvelable possédant un grand potentiel pour la une valorisation énergétique et chimique. La torréfaction de la biomasse sèche (de type bois) est un procédé de transformation thermique s’effectuant à des températures comprises entre 200°C et 300°C, et un temps de séjour compris entre quelques minutes et plusieurs heures, opérant sous pression atmosphérique et en défaut d’air. Le produit principal de la torréfaction est un combustible solide hydrophobe et stable. Cette opération génère des coproduits gazeux à haute température qui sont habituellement considérés comme des effluents pénalisants, apportant au mieux un appoint d’énergie pour le procédé. Pourtant, de nombreux constituants présents dans les condensats – récupérés par condensation des coproduits de torréfaction – pourraient être valorisés comme produits chimiques bio-sourcés. L'objectif de la thèse est de proposer un procédé de séparation-purification pour les composés condensables présents dans ces effluents gazeux. Ces condensats constituent une phase majoritairement aqueuse, contenant plus de 150 espèces organiques identifiées. Les espèces minoritaires sont présentes dans des proportions variables suivant le bois torréfié. Enfin il s’agit d’un mélange réactif et thermiquement instable, où différents équilibres chimiques sont présents. Une analyse des caractéristiques physico-chimiques des condensats a permis de proposer un milieu modèle limité à une dizaine de composés. Un modèle représentatif du comportement thermodynamique de ce mélange réactif à large spectre de masse moléculaire a été sélectionné et les paramètres d’interaction binaire identifiés. Des données expérimentales d’équilibres liquide-vapeur ont été acquises pour valider en partie ce modèle. Les composés cibles et les objectifs du procédé de valorisation ont été choisis et plusieurs stratégies de valorisation ont été élaborées et simulées sous Prosim+ sur la base de la modélisation thermodynamique. Cette étude a permis d’évaluer ces différentes stratégies en termes d’efficacité énergétique et de pureté des produits finaux pour une potentielle mise en place à l’échelle industrielle de cette filière
Lignocellulosic biomass is considered as a renewable carbon resource with great potential for the energy and chemical recovery. Torrefaction is a thermal process carried out at temperatures below 300°C, under inert atmosphere, at atmospheric pressure, and with residence times for the solid biomass ranging from few minutes to several hours. Torrefied wood is a solid product constituted by more than 70% of the initial mass with properties close to those of coal. The 30% remaining part is a gaseous effluent, composed of about one third of non-condensable gases – carbon monoxide and carbon dioxide – and two thirds of condensable species. Currently, torrefied wood is the main product of interest and is usually transformed into energetic gases by the gasification process or directly used as coal for combustion. Conversely, gaseous by-products are considered at present time as a waste and in the best case are burned to provide energy to the process. Yet, the recovery and valorization of the condensable fraction as bio-sourced chemicals is worth considering. The aim of the thesis is to propose a separation-purification process for condensable chemicals of the waste gas. This condensable fraction is a predominantly aqueous phase, containing more than 150 identified organic species. Minority species are present in varying proportions depending on torrefied wood. Finally, it is a reactive and thermally unstable mixture, where different chemical equilibria are present. An analysis of the physicochemical characteristics of the condensable fraction allowed selecting a limited number of compounds to model the mixture. A representative model of the thermodynamic behavior of the reactive mixture has been selected and the binary interaction parameters identified. Experimental vapor-liquid equilibria data were acquired in part to validate this model. The target compounds and objectives of the recovery process were selected and several development strategies were developed and simulated in ProSim+ on the basis of thermodynamic modeling. This study assessed these different strategies in terms of energy efficiency and purity of the products for potential implementation on an industrial scale of this sector
41

Duchez, Laurent. "Modélisation et contribution à l'industrialisation du procédé de rétification du bois." Phd thesis, Ecole Nationale Supérieure des Mines de Saint-Etienne, 2001. http://tel.archives-ouvertes.fr/tel-00872327.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
La rétification® est une pyrolyse ménagée qui améliore l'hygroscopie, la stabilité dimensionnelle et la durabilité du bois. Elle se déroule en atmosphère inerte entre 180°C et 250°C, sans produits chimiques. L'industrialisation du traitement a ici été accompagnée par une double approche matériaux et procédés. D'une part, un plan d'expérience fractionnaire 25-2 et un complément sur le sapin pectiné ont permis d'analyser des paramètres comme l'essence, l'injection d'azote, la température et la durée de pyrolyse afin d'adapter le traitement à l'utilisation finale. Le démarrage du four prototype de 2 m3 a validé des protocoles de dispositions des thermocouples et des planches-tests. Un empilement soigneux est nécessaire et les planches sur dosse se comportent moins bien au traitement. On a testé à grande échelle et écarté une méthode non destructive des propriétés mécaniques par ultrason. D'autre part, la mise au point de traitements sur pilote, prototype et four industriel a permis de tester des modèles de simulation ou d'identification de l'avancée du traitement. Par analogie avec la métallurgie, un modèle simplifié établit une relation différentielle simple entre la température moyenne au coeur des planches et celle du four. La formulation incorpore implicitement les caractéristiques des planches et des transferts à leur surface et elle permet de reconstituer le profil des températures à l'intérieur de celles-ci. Elle est valable en l'absence de réaction et s'applique aussi au refroidissement du bois rétifié. On dispose ainsi d'outils de dimensionnement et d'optimisation du procédé en termes de puissance de chauffe ou de refroidissement accéléré. L'homogénéité des fours est simulée en fonction des rampes de températures et de la vitesse de brassage. La différence entre les températures expérimentales et celles modélisées en l'absence de réaction pourrait permettre de suivre en temps réel le début du séchage et l'avancée de la pyrolyse.
42

Beaubier, Benoit. "Étude physique et modélisation numérique de procédés d'assemblage par soudo-brasage de sous-ensembles en carrosserie automobile." Thesis, Paris 6, 2014. http://www.theses.fr/2014PA066060/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Cette thèse traite de la prise en compte de l'impact des procédés d'assemblage thermomécanique sur la géométrie de la caisse en blanc lors de la phase de conception d'un véhicule, chez PSA Peugeot-Citroën. Pour cela, on souhaite développer un outil de prévision des déformations induites par les procédés de soudo-brage - plasmatron et laser - lors de l'assemblage du pavillon sur le côté de la caisse. Les pièces - de dimensions métriques - sont composées de tôles fines d'épaisseur 0,67 mm en acier XES. Afin de réaliser une simulation numérique du procédé, il est nécessaire d'identifier un certain nombre de modèles, objets de cette thèse. Dans un premier temps des essais de soudo-brasage en laboratoire ont été réalisés afin de définir les domaines de validité de l'étude, d'identifier des modèles de sources de chaleur, et de déterminer les coefficients d'échange thermique avec l'extérieur. Une étude spécifique d'identification des lois de comportement des matériaux mis en jeu, sur toute la gamme de température, a également été réalisée. Pour cela, une méthode de mesure de champs par corrélation d'images numériques à haute température a été développée, qui a permis d'identifier complètement les paramètres de la loi de comportement de l'acier XES. Pour finir, de façon à réaliser la validation de la simulation numérique, ces travaux de thèse ont été l'occasion de développer une nouvelle méthode de calibration pour la stéréocorrélation d'images basée sur la connaissance a priori de la géométrie de l'objet observé, en considérant sa forme théorique via son modèle CAO. Cette méthode est tout particulièrement adaptée aux dimensions des structures étudiées ici
This study is about the impact of thermo-mechanical assembly processes of metal sheets, in the automotive industry context. The aim is to predict thermally induced deformations by using a numerical tool. We are particularly interested in Plasmatron and laser brazing processes that are used to assemble an automotive roof and the body side of the vehicle. Parts are made from 0,67 mm thickness XES thin metal sheet of about one meter length. To validate such complex non-linear numerical simulations with experimental observations, it is necessary to develop well-controlled and highly instrumented tests. In a first step, experimental welding brazing tests are carried out in order to identify validity domains, heat source model and thermal coefficients of exchange. In a second step, high temperature tension tests are performed to identify the behaviour of each material. These tests are instrumented with a new DIC protocol in order to measure displacement fields from 20°C to 1000°C. Finally, in order to validate the thermo-mechanical simulation, in-situ 3D Digital Image Correlation (stereo-correlation) measurements were performed during the welding-brazing assembly. For this purpose and due to the geometry of the involved parts, a new calibration method, based on the CAD part geometry has been developed
43

Mougin, Jonathan. "Vers un outil de modélisation des processus de transfert de connaissance." Thesis, Université Grenoble Alpes (ComUE), 2018. http://www.theses.fr/2018GREAI022/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
La connaissance, et plus particulièrement, la gestion des connaissances est un enjeu stratégique qui peut fournir un avantage concurrentiel non négligeable dans une économie compétitive et dynamique. Cependant, ce domaine possède un caractère interdisciplinaire indéniable. En effet, il est traité par de multiples disciplines telles que les sciences de l’information, l’informatique, la psychologie, l’économie ou les sciences de l’ingénierie.Les travaux de recherche présentés dans ce manuscrit ont eu lieu dans un contexte CIFRE (Conventions Industrielles de Formation par la REcherche). Le sujet initial est né de la collaboration entre l’équipe « Conception Collaborative » du laboratoire G-SCOP (laboratoire Grenoblois dédié aux Sciences de la Conception, de l'Optimisation et de la Production) et de la société BASSETTI, éditeur et intégrateur de la solution logiciel TEEXMA®.Dans le cadre des travaux présentés dans ce manuscrit, notre objectif a été d'étudier comment modéliser les processus de transfert de connaissance afin de mieux comprendre la façon dont ces derniers se mettent en place au sein des organisations. L’outil de modélisation proposé dans cette thèse repose en partie sur la réutilisation de modèles existants trouvés dans la littérature et sur une méthodologie d'observation des participants.Les recherches effectuées se sont déroulées en suivant une méthodologie de type recherche intervention. Afin de répondre à ce sujet, nous avons donc pu tester notre outil de modélisation à travers plusieurs études de cas terrain. Ces études ont permis de valider la première partie de nos hypothèses. Après cette phase de validation, nous avons cherché à évaluer l’appropriation de l’utilisation de notre outil de modélisation à la suite de formations. En parallèle, nous avons inclus notre outil de modélisation dans une démarche plus globale afin de diagnostiquer des situations de transfert de connaissance. Cette démarche globale a ensuite été appliquée à deux études de cas. Enfin nous avons dérivé l’usage de la démarche précédente. Cette fois ci, l’outil de modélisation est utilisé pour analyser les usages liés à des outils informatiques
Knowledge, and more precisely, knowledge management, is a strategic issue that can provide a significant competitive advantage in a competitive and dynamic economy. However, this field has an undeniable interdisciplinary character. Indeed, it is treated by multiple research areas such as information science, computer science, psychology, economics or engineering sciences.The research presented in this thesis occurred in a CIFRE context (French Industrial Conventions). The initial research topic was born from the collaboration between the "Collaborative Design" team of the G-SCOP laboratory (Grenoble laboratory dedicated to the Sciences of Design, Optimization and Production) and the company BASSETTI, editor and integrator of the TEEXMA® software solution.As part of the work presented in this manuscript, our goal has been to study how to model knowledge transfer processes for a better understanding of how these processes are implemented within organizations. The modelling tool proposed in this thesis relies in part on the reuse of existing models found in the literature and on a participant observation methodology.The research carried out was conducted following an intervention research methodology. To answer this question, we were able to test our modelling tool through several case studies. These studies allowed to validate the first part of our hypotheses. After this validation phase, we sought to evaluate the appropriation of the use of our modelling tool after knowledge management trainings. In parallel, we have included our modelling tool in a more global approach to diagnose situations of knowledge transfer. This global approach was then applied to two case studies. Finally, we reused the previous approach. This time, the modelling tool was used to analyse uses related to computer tools
44

Gahlam, Nadia. "L'entrepreneuriat durable : essai de modélisation d'un processus innovant." Electronic Thesis or Diss., Reims, 2019. http://www.theses.fr/2019REIME001.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
La notion de développement durable est aujourd’hui une préoccupation centrale des populations et des pouvoirs publics. L’entrepreneuriat durable représente une forme de réponse à cette préoccupation à travers l’intégration des normes de développement durable dans le cœur de métier de l’entreprise. Ce type d’entreprise vient répondre à des objectifs économiques, sociaux et environnementaux. La recherche en entrepreneuriat durable s’est particulièrement intéressée au profil de l’entrepreneur durable. Cependant, la recherche ne s’est pas suffisamment interrogée sur la façon dont il procède. Il est considéré comme l’agent de rupture à travers l’introduction d’éco-innovations. L’innovation apparait donc comme une solution aux problématiques sociales et environnementales. Mais ceci n’est pas suffisant pour considérer ce phénomène entrepreneurial comme une forme innovante. Cette thèse tente de combler ces manquements en modélisant, le processus entrepreneurial durable. Par ailleurs, l’emprunt d’une théorie de l’innovation « C-K Theory » permet de rapprocher le processus entrepreneurial durable du processus de conception innovante CK dans l’objectif de déterminer le caractère innovant de l’entrepreneuriat durable
The notion of sustainable development is today a central concern of the population and the public authorities. Sustainable entrepreneurship is a form of response to this concern through the integration of sustainable development standards into the core business of the company. This type of business comes to meet economic, social and environmental objectives. Sustainable entrepreneurship research has been particularly interested in the profile of the sustainable entrepreneur. However, the research did not ask enough about how it works. It is considered the breaking agent through the introduction of eco-innovations. Innovation therefore appears as a solution to social and environmental issues. But this is not enough to consider this entrepreneurial phenomenon as an innovative form. This thesis attempts to fill these gaps by modeling, the sustainable entrepreneurial process. In addition, the borrowing of a theory of innovation "C-K Theory" makes it possible to bring the sustainable entrepreneurial process closer to the CK innovative design process in order to determine the innovative nature of sustainable entrepreneurship
45

Boillot, Mathieu. "Validation expérimentale d'outils de modélisation d'une pile à combustible de type PEM." Phd thesis, Institut National Polytechnique de Lorraine - INPL, 2005. http://tel.archives-ouvertes.fr/tel-00109628.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Cette thèse tente d'apporter une vision globale des phénomènes mis en jeu lors du fonctionnement d'une pile à combustible de type PEM. Une méthodologie originale a été développée pour appréhender et mesurer les principaux paramètres thermodynamiques, cinétiques et des phénomènes de transport. La détermination expérimentale de la distribution des temps de séjour et la simulation numérique ont permis de caractériser l'écoulement dans les plaques bipolaires. La cinétique des deux demi-réactions électrochimiques a ensuite pu être analysée par des expériences ciblées de dilution des gaz réactifs, et en tenant compte de la diffusion dans l'assemblage membrane-électrodes. Enfin, l'influence de l'humidité sur les performances électriques, ainsi que l'estimation de la résistance ohmique, ont été abordées.
46

Chapurlat, Vincent. "Vérification et validation de modèles de systèmes complexes: application à la Modélisation d'Entreprise." Habilitation à diriger des recherches, Université Montpellier II - Sciences et Techniques du Languedoc, 2007. http://tel.archives-ouvertes.fr/tel-00204981.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Cette Habilitation à Diriger des Recherches est le fruit des résultats, tant en recherche qu'en enseignement ou en transfert, de mon activité d'enseignant chercheur. Initiée au sein du Laboratoire d'Informatique, de Microélectronique et de Robotique de Montpellier (LIRMM, UMR CNRS/UM2) de 1991 à 1994, cette activité s'est ensuite concrétisée au sein du Laboratoire de Génie Informatique et d'Ingénierie de Production (LGI2P) de l'Ecole des Mines d'Alès où j'exerce depuis 1994.
Le travail de recherche entrepris depuis le début du Doctorat en 1991 relève de la thématique de la modélisation de systèmes complexes puis de la vérification et de la validation de ces modèles. Ceci a pour objectif d'assurer, ou à défaut de rassurer, le modeleur sur la qualité des modèles, sur leur pertinence vis-à-vis du système considéré et sur le respect d'exigences qui ont présidé à leur construction. La recherche a donc consisté au développement d'approches de modélisation, de spécification formelle de propriétés, de vérification par preuve de propriétés au moyen de Graphes Conceptuels et de simulation comportementale. Les domaines d'application privilégiés ont été les systèmes de contrôle commande répartis, puis plus largement la modélisation d'entreprise et tentent aujourd'hui d'intégrer une dimension risque dans la modélisation d'entreprise et de s'ouvrir plus largement à l'ingénierie des systèmes complexes. Les résultats sont des langages et un cadre de modélisation intégré, un langage de spécification baptisé LUSP, une suite de mécanismes de preuve formelle et de simulation qui ont donné lieu à divers encadrements de thèses, de travaux et à des transferts vers l'industrie.
Enfin, l'activité d'enseignement a tenté de rester cohérente avec le profil de compétence à la fois de producticien et d'ingénierie système acquis ou inspiré par la thématique de recherche. Elle s'est déroulée dans le cadre de diverses Universités, Ecoles d'Ingénieurs ou de cursus spécialisés. Les résultats sont des propositions et l'accompagnement de thématiques nouvelles, une activité d'ingénierie pédagogique et une implication dans diverses responsabilités administratives.
47

El, Hentati Fatima Zahra. "Etude expérimentale et modélisation mathématique de la réponse lymphocytaire T." Phd thesis, Ecole Nationale Supérieure des Mines de Saint-Etienne, 2009. http://tel.archives-ouvertes.fr/tel-00466660.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
La réponse lymphocytaire T, spécifique, est complexe, car elle fait intervenir plusieurs acteurs et dépend de paramètres externes et internes difficiles Cette multitude de paramètres rend difficile d'appréhender la réaction, surtout du point de vue dynamique. Une meilleure connaissance de ce mécanisme permettrait d'analyser et si possible anticiper les désordres immunitaires ou d'immuno-intervention (vaccins, immunothérapies). La modélisation et la simulation numériques permettraient de tester des hypothèses, de dessiner de nouvelles conditions expérimentales et in fine d'optimiser des protocoles thérapeutiques. Dans ce but, Un modèle mathématique mimant la réponse adaptative T a été proposé par notre équipe (Bidot et al. 2008). Le modèle utilise des paramètres publiés et les confrontations avec des données expérimentales validées dans la littérature montrent qu'il est réaliste. Cependant, il reste encore imprécis car certains paramètres n'ont pas été déterminés. Dans le but de compléter, corriger et valider notre modèle, nous nous sommes intéressés à l'étude détaillée du lymphocyte T sous différents aspects. Dans un premier temps, nous avons étudié expérimentalement la variabilité d'expression des CD3 membranaires et ses conséquences dans l'activation des lymphocytes. Puis, nous avons cherché à étudier le comportement des lymphocytes T pour des stimulations spécifiques (selon le peptide) à l'aide d'un modèle murin spécifique d'un antigène par transfert de gène du récepteur T. Enfin, nous avons réalisé un modèle mathématique dans le but de surmonter les ambigüités des traitements statistiques des résultats de cytométrie en flux en utilisant les principes de dynamique de population.
48

Kacem, Manel. "Processus de risque : modélisation de la dépendance et évaluation du risque sous des contraintes de convexité." Thesis, Lyon 1, 2013. http://www.theses.fr/2013LYO10051/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Ce travail de thèse porte principalement sur deux problématiques différentes mais qui ont pour point commun, la contribution à la modélisation et à la gestion du risque en actuariat. Dans le premier thème de recherche abordé dans cette thèse, on s'intéresse à la modélisation de la dépendance en assurance et en particulier, on propose une extension des modèles à facteurs communs qui sont utilisés en assurance. Dans le deuxième thème de recherche, on considère les distributions discrètes décroissantes et on s'intéresse à l'étude de l'effet de l'ajout de la contrainte de convexité sur les extrema convexes. Des applications en liaison avec la théorie de la ruine motivent notre intérêt pour ce sujet. Dans la première partie de la thèse, on considère un modèle de risque en temps discret dans lequel les variables aléatoires sont dépendantes mais conditionnellement indépendantes par rapport à un facteur commun. Dans ce cadre de dépendance on introduit un nouveau concept pour la modélisation de la dépendance temporelle entre les risques d'un portefeuille d'assurance. En effet, notre modélisation inclut des processus de mémoire non bornée. Plus précisément, le conditionnement se fait par rapport à un vecteur aléatoire de longueur variable au cours du temps. Sous des conditions de mélange du facteur et d'une structure de mélange conditionnel, nous avons obtenu des propriétés de mélanges pour les processus non conditionnels. Avec ces résultats on peut obtenir des propriétés asymptotiques intéressantes. On note que dans notre étude asymptotique c'est plutôt le temps qui tend vers l'infini que le nombre de risques. On donne des résultats asymptotiques pour le processus agrégé, ce qui permet de donner une approximation du risque d'une compagnie d'assurance lorsque le temps tend vers l'infini. La deuxième partie de la thèse porte sur l'effet de la contrainte de convexité sur les extrema convexes dans la classe des distributions discrètes dont les fonctions de masse de probabilité (f.m.p.) sont décroissantes sur un support fini. Les extrema convexes dans cette classe de distributions sont bien connus. Notre but est de souligner comment les contraintes de forme supplémentaires de type convexité modifient ces extrema. Deux cas sont considérés : la f.m.p. est globalement convexe sur N et la f.m.p. est convexe seulement à partir d'un point positif donné. Les extrema convexes correspondants sont calculés en utilisant de simples propriétés de croisement entre deux distributions. Plusieurs illustrations en théorie de la ruine sont présentées
In this thesis we focus on two different problems which have as common point the contribution to the modeling and to the risk management in insurance. In the first research theme, we are interested by the modeling of the dependence in insurance. In particular we propose an extension to model with common factor. In the second research theme we consider the class of nonincreasing discrete distributions and we are interested in studying the effect of additional constraint of convexity on the convex extrema. Some applications in ruin theory motivate our interest to this subject. The first part of this thesis is concerned with factor models for the modeling of the dependency in insurance. An interesting property of these models is that the random variables are conditionally independent with respect to a factor. We propose a new model in which the conditioning is with respect to the entire memory of the factor. In this case we give some mixing properties of risk process under conditions related to the mixing properties of the factor process and to the conditional mixing risk process. The law of the sum of random variables has a great interest in actuarial science. Therefore we give some conditions under which the law of the aggregated process converges to a normal distribution. In the second part of the thesis we consider the class of discrete distributions whose probability mass functions (p.m.f.) are nonincreasing on a finite support. Convex extrema in that class of distributions are well-known. Our purpose is to point out how additional shape constraints of convexity type modify these extrema. Two cases are considered : the p.m.f. is globally convex on N or it is convex only from a given positive point. The corresponding convex extrema are derived by using a simple crossing property between two distributions. Several applications to some ruin problems are presented for illustration
49

Zhang, Qiang. "Process modeling of innovative design using systems engineering." Thesis, Strasbourg, 2014. http://www.theses.fr/2014STRAD007/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Nous développons des modèles de processus pour décrire et gérer efficacement la conception innovante, en suivant la méthodologie DRM. D'abord, nous présentons un modèle descriptif de la conception innovante. Ce modèle reflète les processus fondamentaux qui sont utiles pour comprendre les différentes dimensions et étapes impliqués dans la conception innovante. Il permette aussi de localise les possibilités d'innovation dans ce processus, et se focalise sur les facteurs internes et externes qui influencent le succès. Deuxièmement, nous effectuons une étude empirique pour étudier la façon dont le contrôle et la flexibilité peuvent être équilibrés pour gérer l'incertitude dans la conception innovante. Après avoir identifié les pratiques de projets qui traitent de ces incertitudes en termes de contrôle et de flexibilité, des études de cas sont analysés. Cet exemple montre que le contrôle et la flexibilité peuvent coexister. En se basant sûr les résultats managériaux issu de cette étude empirique, nous développons un modèle procédurale de processus et un modèle adaptatif à base d’activité. Le premier propose le cadre conceptuel pour équilibrer l'innovation et le contrôle par la structuration des processus au niveau du projet et par l'intégration des pratiques flexibles au niveau opérationnel. Le second modèle considère la conception innovante comme un système adaptatif complexe. Il propose ainsi une méthode de conception qui construit progressivement l'architecture du processus de la conception innovante. Enfin, les deux modèles sont vérifiées en analysant un certain nombre de processus et en faisant des simulations au sein de trois projets de conception innovante
We develop a series of process models to comprehensively describe and effectively manage innovative design in order to achieve adequate balance between innovation and control, following the design research methodology (DRM). Firstly, we introduce a descriptive model of innovative design. This model reflects the actual process and pattern of innovative design, locates innovation opportunities in the process and supports a systematic perspective whose focus is the external and internal factors affecting the success of innovative design. Secondly, we perform an empirical study to investigate how control and flexibility can be balanced to manage uncertainty in innovative design. After identifying project practices that cope with these uncertainties in terms of control and flexibility, a case-study sample based on five innovative design projects from an automotive company is analyzed and shows that control and flexibility can coexist. Based on the managerial insights of the empirical study, we develop the procedural process model and the activity-based adaptive model of innovative design. The former one provides the conceptual framework to balance innovation and control by the process structuration at the project-level and the integration of flexible practices at the operation-level. The latter model considers innovative design as a complex adaptive system, and thereby proposes the method of process design that dynamically constructs the process architecture of innovative design. Finally, the two models are verified by supporting a number of process analysis and simulation within a series of innovative design projects
50

Oliva, Florian. "Modélisation, caractérisation et optimisation des procédés de traitements thermiques pour la formation d’absorbeurs CIGS." Thesis, Saint-Etienne, EMSE, 2014. http://www.theses.fr/2014EMSE0738/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
L’énergie photovoltaïque jouera un rôle déterminant dans la transition énergétique future. Bien que les cellules solaires à base de silicium dominent encore le marché, leur coût de fabrication et le poids des modules limitent leur développement. Depuis quelques années, les industriels s’intéressent de plus en plus aux dispositifs à base de couches minces en raison de leurs procédés de fabrication rapides et peu onéreux sur de larges substrats. Cette technologie utilise une large variété de matériaux; les chalcopyrites tels que Cu(In,Ga)Se2 sont les plus prometteurs. Le procédé de fabrication de couches chalcopyrites le plus répandu est la coévaporation mais l’utilisation de vides très poussés rende cette technique peu adaptée à la production à grande échelle de modules bon marché. La solution alternative décrite dans ce travail est un procédé en deux étapes basé sur le recuit sous atmosphère réactive de précurseurs métalliques électrodéposés. Le développement de cette technologie passe par une meilleure compréhension des mécanismes d’incorporation et d’homogénéisation du gallium dans les couches formées et par une optimisation des étapes de recuit. Le premier objectif de ce travail de thèse est une étude des mécanismes réactionnels mis en jeu lors du procédé de recuit à travers l’étude de différents types de précurseur. Par la suite ces connaissances sont utilisées pour modéliser et optimiser un recuit industriel innovant. Ce travail est réalisé à l’aide de plans d’expérience (DOE) où l’influence de certains paramètres, les plus critiques est mise en évidence. Des voies d’optimisation sont proposées et des hypothèses faites afin d’expliquer les phénomènes observés
Solar energy is promised to be a major actor in the future of energy production. Even if silicon based solar cells remain the main product their fabrication is energy consuming and requires heavy cover glass for protection, which reduce their development. For several years, commercial interest has shifted towards thin-film cells for which manufacturing time, large scale production, fabrication costs and weight savings are the main advantages. For thin film technology, a wide variety of materials can be used but chalcopyrite such as Cu(In,Ga)Se2 is one of the most promising. The most current method used for chalcopyrite formation is co- evaporation but this process is very expensive and not well suitable for large scale production due to high vacuum requirements. One alternative solution described in this work consists of a two-step technology based on the sequential electro-deposition of a metallic precursor followed by a rapid reactive annealing. However to reach its full potential this technology needs a better understanding of the Ga incorporation mechanism and of the selenization/sulfurization step. This work focuses first on formation mechanisms through the study of several kinds of precursor. This knowledge is then used to explain and to optimize innovative annealing processes. This study is achieved by observing the impact of some process parameters using designs of experiment (DOE). A link between process parameters and properties of these thin films is obtained using electrical, structural and diffusion characterization of the devices. Finally we propose hypothesis to explain observed phenomena and also some improvements to meet the challenges of this process

До бібліографії