Дисертації з теми "Processus modeling"

Щоб переглянути інші типи публікацій з цієї теми, перейдіть за посиланням: Processus modeling.

Оформте джерело за APA, MLA, Chicago, Harvard та іншими стилями

Оберіть тип джерела:

Ознайомтеся з топ-50 дисертацій для дослідження на тему "Processus modeling".

Біля кожної праці в переліку літератури доступна кнопка «Додати до бібліографії». Скористайтеся нею – і ми автоматично оформимо бібліографічне посилання на обрану працю в потрібному вам стилі цитування: APA, MLA, «Гарвард», «Чикаго», «Ванкувер» тощо.

Також ви можете завантажити повний текст наукової публікації у форматі «.pdf» та прочитати онлайн анотацію до роботи, якщо відповідні параметри наявні в метаданих.

Переглядайте дисертації для різних дисциплін та оформлюйте правильно вашу бібліографію.

1

Dávila-Felipe, Miraine. "Pathwise decompositions of Lévy processes : applications to epidemiological modeling." Thesis, Paris 6, 2016. http://www.theses.fr/2016PA066651.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Cette thèse est consacrée à l'étude de décompositions trajectorielles de processus de Lévy spectralement positifs et des relations de dualité pour des processus de ramification, motivée par l'utilisation de ces derniers comme modèles probabilistes d'une dynamique épidémiologique. Nous modélisons l'arbre de transmission d'une maladie comme un arbre de ramification, où les individus évoluent indépendamment les uns des autres, ont des durées de vie i.i.d. (périodes d'infectiosité) et donnent naissance (infections secondaires) à un taux constant durant leur vie. Le processus d'incidence dans ce modèle est un processus de Crump-Mode-Jagers (CMJ) et le but principal des deux premiers chapitres est d'en caractériser la loi conjointement avec l'arbre de transmission partiellement observé, inferé à partir des données de séquences. Dans le Chapitre I, nous obtenons une description en termes de fonctions génératrices de la loi du nombre d'individus infectieux, conditionnellement à l'arbre de transmission reliant les individus actuellement infectés. Une version plus élégante de cette caractérisation est donnée dans le Chapitre II, en passant par un résultat général d'invariance par retournement du temps pour une classe de processus de ramification. Finallement, dans le Chapitre III nous nous intéressons à la loi d'un processus de ramification (sous)critique vu depuis son temps d'extinction. Nous obtenons un résultat de dualité qui implique en particulier l'invariance par retournement du temps depuis leur temps d'extinction des processus CMJ (sous)critiques et de l'excursion hors de 0 de la diffusion de Feller critique (le processus de largeur de l'arbre aléatoire de continuum)
This dissertation is devoted to the study of some pathwise decompositions of spectrally positive Lévy processes, and duality relationships for certain (possibly non-Markovian) branching processes, driven by the use of the latter as probabilistic models of epidemiological dynamics. More precisely, we model the transmission tree of a disease as a splitting tree, i.e. individuals evolve independently from one another, have i.i.d. lifetimes (periods of infectiousness) that are not necessarily exponential, and give birth (secondary infections) at a constant rate during their lifetime. The incidence of the disease under this model is a Crump-Mode-Jagers process (CMJ); the overarching goal of the two first chapters is to characterize the law of this incidence process through time, jointly with the partially observed (inferred from sequence data) transmission tree. In Chapter I we obtain a description, in terms of probability generating functions, of the conditional likelihood of the number of infectious individuals at multiple times, given the transmission network linking individuals that are currently infected. In the second chapter, a more elegant version of this characterization is given, passing by a general result of invariance under time reversal for a class of branching processes. Finally, in Chapter III we are interested in the law of the (sub)critical branching process seen from its extinction time. We obtain a duality result that implies in particular the invariance under time reversal from their extinction time of the (sub)critical CMJ processes and the excursion away from 0 of the critical Feller diffusion (the width process of the continuum random tree)
2

Suri, Kunal. "Modeling the internet of things in configurable process models." Thesis, Université Paris-Saclay (ComUE), 2019. http://www.theses.fr/2019SACLL005/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Un nombre croissant d’entreprises internationales ont adopté les systèmes d'information centrés-processus pour profiter des avantages de l'utilisation de processus rationalisés basés sur des modèles prédéfinis, également appelés modèles de processus métier. Cependant, l'environnement commercial dynamique actuel exige de la flexibilité et la réutilisation systématique des processus métier, qui se manifeste par l'utilisation de modèles de processus configurables (CPM). Ceci évite le développement de processus à partir de zéro, qui est à la fois une démarche fastidieuse et sujette à de nombreuses erreurs, et facilite le partage d'une famille de variantes de processus métier pouvant être personnalisées en fonction d'exigences métier concrètes. Par ailleurs, l'adoption des ressources de l'Internet des objets (IoT) dans les processus d'entreprise inter-organisationnels est également en croissante constante. Cependant, ces ressources IoT doivent être utilisées efficacement. Ces dispositifs IoT sont hétérogènes en raison de leurs propriétés et de leurs fabricants (normes propriétaires), ce qui pose des problèmes d’interopérabilité. De plus, étant limitées, elles doivent être allouées (et consommées) en gardant à l'esprit des contraintes, tels que le coût énergétique, le coût de calcul, etc. pour éviter les pannes pendant leurs consommations par les processus. Il est donc essentiel de modéliser explicitement la perspective des ressources IoT dans les modèles de processus métiers lors de la phase de conception. Dans la littérature, divers travaux de recherche dans le domaine de gestion des processus métier (BPM) sont généralement axés sur la perspective du flux de contrôle. Bien qu'il existe certaines approches axées sur la perspective des ressources, elles sont généralement dédiées à la perspective des ressources humaines. Ainsi, les travaux sur l'intégration de la perspective des ressources IoT dans les processus métier sont limités pour résoudre des problèmes liés à l'hétérogénéité. De même, dans le contexte des CPM, il n’existe aucune prise en charge de la configuration permettant de modéliser la variabilité des ressources IoT au niveau des CPM. Cette variabilité résulte des fonctionnalités spécifiques aux ressources IoT, telles que la possibilité de partage, et réplication, qui sont pertinentes dans le contexte des processus métier. Dans cette thèse, nous abordons les limitations susmentionnées en proposant une approche pour intégrer la perspective IoT dans le domaine du BPM et soutenir le développement de CPM. Ce travail propose les contributions suivantes: (1) il fournit une description formelle de la perspective des ressources IoT, et de ses relations avec le domaine BPM à l'aide de la technologie sémantique, et (2) il fournit de nouveaux concepts pour permettre l'allocation de ressources IoT configurables dans les CPM. Pour valider notre approche et démontrer sa faisabilité, nous procédons comme suit: (1) implémenter des outils preuve de concept qui soutiennent le développement de processus métier et de modèles de processus configurables conscient des IoT, et (2) réaliser des expérimentations sur des jeux de données de modèles de processus qui démontrent l’efficacité de notre approche et affirment sa faisabilité
On the one hand, a growing number of multi-national organizations have embraced the Process-Aware Information Systems (PAIS) to reap the benefits of using streamlined processes that are based on predefined models, also called as Business Process (BP) models. However, today's dynamic business environment demands flexibility and systematic reuse of BPs, which is provided by the use of Configurable Process Models (CPMs). It avoids the development of processes from scratch, which is both time-consuming and error-prone, and facilitates the sharing of a family of BP variants that can be customized based on concrete business requirements. On the other hand, the adoption of the Internet of Things (IoT) resources in various cross-organizational BPs is also on a rise. However, to attain the desired business value, these IoT resources must be used efficiently. These IoT devices are heterogeneous due to their diverse properties and manufactures (proprietary standards), which leads to issues related to interoperability. Further, being resource-constrained, they need to be allocated (and consumed) keeping in the mind relevant constraints such as energy cost, computation cost, to avoid failures during the time of their consumption in the processes. Thus, it is essential to explicitly model the IoT resource perspective in the BP models during the process design phase. In the literature, various research works in Business Process Management (BPM) domain are usually focused on the control-flow perspective. While there do exist some approaches that focus on the resource perspective, they are typically dedicated to the human resource perspective. Thus, there is limited work on integrating the IoT resource perspective into BPs, without any focus on solving issues related to heterogeneity in IoT domain. Likewise, in the context of CPMs, there is no configuration support to model IoT resource variability at the CPM level. This variability is a result of specific IoT resource features such as Shareability and Replication that is relevant in the context of BPs. In this thesis, we address the aforementioned limitations by proposing an approach to integrate IoT perspective in the BPM domain and to support the development of IoT-Aware CPMs. This work contributes in the following manner: (1) it provides a formal description of the IoT resource perspective and its relationships with the BPM domain using semantic technology and (2) it provides novel concepts to enable configurable IoT resource allocation in CPMs. To validate our approach and to show its feasibility, we do the following: (1) implement proof of concept tools that assist in the development of IoT-aware BPs and IoT-aware CPMs and (2) perform experiments on the process model datasets. The experimentation results show the effectiveness of our approach and affirm its feasibility
3

Beccuti, Marco. "Modeling and analisys of probabilistic system : Formalism and efficient algorithm." Paris 9, 2008. https://portail.bu.dauphine.fr/fileviewer/index.php?doc=2008PA090060.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
4

Yongsiriwit, Karn. "Modeling and mining business process variants in cloud environments." Thesis, Université Paris-Saclay (ComUE), 2017. http://www.theses.fr/2017SACLL002/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
De plus en plus les organisations adoptent les systèmes d'informations sensibles aux processus basés sur Cloud en tant qu'un environnement pour gérer et exécuter des processus dans le Cloud dans l'objectif de partager et de déployer leurs applications de manière optimale. Cela est particulièrement vrai pour les grandes organisations ayant des succursales opérant dans des différentes régions avec des processus considérablement similaires. Telles organisations doivent soutenir de nombreuses variantes du même processus en raison de la culture locale de leurs succursales, de leurs règlements, etc. Cependant, le développement d'une nouvelle variante de processus à partir de zéro est sujet à l'erreur et peut prendre beaucoup du temps. Motivés par le paradigme "la conception par la réutilisation", les succursales peuvent collaborer pour développer de nouvelles variantes de processus en apprenant de leurs processus similaires. Ces processus sont souvent hétérogènes, ce qui empêche une interopérabilité facile et dynamique entre les différentes succursales. Une variante de processus est un ajustement d'un modèle de processus afin de s'adapter d'une façon flexible aux besoins spécifiques. De nombreuses recherches dans les universités et les industries visent à faciliter la conception des variantes de processus. Plusieurs approches ont été développées pour aider les concepteurs de processus en recherchant des modèles de processus métier similaires ou en utilisant des modèles de référence. Cependant, ces approches sont lourdes, longues et sujettes à des erreurs. De même, telles approches recommandent des modèles de processus pas pratiques pour les concepteurs de processus qui ont besoin d'ajuster une partie spécifique d'un modèle de processus. En fait, les concepteurs de processus peuvent mieux développer des variantes de processus ayant une approche qui recommande un ensemble bien défini d'activités à partir d'un modèle de processus défini comme un fragment de processus. Les grandes organisations multi-sites exécutent les variantes de processus BP dans l'environnement Cloud pour optimiser le déploiement et partager les ressources communes. Cependant, ces ressources Cloud peuvent être décrites en utilisant des différents standards de description des ressources Cloud ce qui empêche l'interopérabilité entre les différentes succursales. Dans cette thèse, nous abordons les limites citées ci-dessus en proposant une approche basée sur les ontologies pour peupler sémantiquement une base de connaissance commune de processus et de ressources Cloud, ce qui permet une interopérabilité entre les succursales de l'organisation. Nous construisons notre base de connaissance en étendant les ontologies existantes. Ensuite, nous proposons une approche pour exploiter cette base de connaissances afin de supporter le développement des variantes BP. De plus, nous adoptons un algorithme génétique pour allouer d'une manière optimale les ressources Cloud aux BPs. Pour valider notre approche, nous développons deux preuves de concepts et effectuons des expériences sur des ensembles de données réels. Les résultats expérimentaux montrent que notre approche est réalisable et précise dans des cas d'utilisation réels
More and more organizations are adopting cloud-based Process-Aware Information Systems (PAIS) to manage and execute processes in the cloud as an environment to optimally share and deploy their applications. This is especially true for large organizations having branches operating in different regions with a considerable amount of similar processes. Such organizations need to support many variants of the same process due to their branches' local culture, regulations, etc. However, developing new process variant from scratch is error-prone and time consuming. Motivated by the "Design by Reuse" paradigm, branches may collaborate to develop new process variants by learning from their similar processes. These processes are often heterogeneous which prevents an easy and dynamic interoperability between different branches. A process variant is an adjustment of a process model in order to flexibly adapt to specific needs. Many researches in both academics and industry are aiming to facilitate the design of process variants. Several approaches have been developed to assist process designers by searching for similar business process models or using reference models. However, these approaches are cumbersome, time-consuming and error-prone. Likewise, such approaches recommend entire process models which are not handy for process designers who need to adjust a specific part of a process model. In fact, process designers can better develop process variants having an approach that recommends a well-selected set of activities from a process model, referred to as process fragment. Large organizations with multiple branches execute BP variants in the cloud as environment to optimally deploy and share common resources. However, these cloud resources may be described using different cloud resources description standards which prevent the interoperability between different branches. In this thesis, we address the above shortcomings by proposing an ontology-based approach to semantically populate a common knowledge base of processes and cloud resources and thus enable interoperability between organization's branches. We construct our knowledge base built by extending existing ontologies. We thereafter propose an approach to mine such knowledge base to assist the development of BP variants. Furthermore, we adopt a genetic algorithm to optimally allocate cloud resources to BPs. To validate our approach, we develop two proof of concepts and perform experiments on real datasets. Experimental results show that our approach is feasible and accurate in real use-cases
5

Domingues, Rémi. "Probabilistic Modeling for Novelty Detection with Applications to Fraud Identification." Electronic Thesis or Diss., Sorbonne université, 2019. https://accesdistant.sorbonne-universite.fr/login?url=https://theses-intra.sorbonne-universite.fr/2019SORUS473.pdf.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
La détection de nouveauté est le problème non supervisé d’identification d’anomalies dans des données de test qui diffèrent de manière significative des données d’apprentissage. La représentation de données temporelles ou de données de types mixtes, telles des données numériques et catégorielles, est une tâche complexe. Outre le type de données supporté, l'efficacité des méthodes de détection de nouveauté repose également sur la capacité à dissocier avec précision les anomalies des échantillons nominaux, l'interprétabilité, la scalabilité et la robustesse aux anomalies présentes dans les données d'entraînement. Dans cette thèse, nous explorons de nouvelles façons de répondre à ces contraintes. Plus spécifiquement, nous proposons (i) une étude de l'état de l'art des méthodes de détection de nouveauté, appliquée aux données de types mixtes, et évaluant la scalabilité, la consommation mémoire et la robustesse des méthodes (ii) une étude des méthodes de détection de nouveauté adaptées aux séquences d'évènements (iii) une méthode de détection de nouveauté probabiliste et non paramétrique pour les données de types mixtes basée sur des mélanges de processus de Dirichlet et des distributions de famille exponentielle et (iv) un modèle de détection de nouveauté basé sur un autoencodeur dans lequel l'encodeur et le décodeur sont modélisés par des processus Gaussiens profonds. L’apprentissage de ce modèle est effectué par extension aléatoire des dimensions et par inférence stochastique variationnelle. Cette méthode est adaptée aux dimensions de types mixtes et aux larges volumes de données
Novelty detection is the unsupervised problem of identifying anomalies in test data which significantly differ from the training set. While numerous novelty detection methods were designed to model continuous numerical data, tackling datasets composed of mixed-type features, such as numerical and categorical data, or temporal datasets describing discrete event sequences is a challenging task. In addition to the supported data types, the key criteria for efficient novelty detection methods are the ability to accurately dissociate novelties from nominal samples, the interpretability, the scalability and the robustness to anomalies located in the training data. In this thesis, we investigate novel ways to tackle these issues. In particular, we propose (i) a survey of state-of-the-art novelty detection methods applied to mixed-type data, including extensive scalability, memory consumption and robustness tests (ii) a survey of state-of-the-art novelty detection methods suitable for sequence data (iii) a probabilistic nonparametric novelty detection method for mixed-type data based on Dirichlet process mixtures and exponential-family distributions and (iv) an autoencoder-based novelty detection model with encoder/decoder modelled as deep Gaussian processes. The learning of this last model is made tractable and scalable through the use of random feature approximations and stochastic variational inference. The method is suitable for large-scale novelty detection problems and data with mixed-type features. The experiments indicate that the proposed model achieves competitive results with state-of-the-art novelty detection methods
6

Petit, Sébastien. "Improved Gaussian process modeling : Application to Bayesian optimization." Electronic Thesis or Diss., université Paris-Saclay, 2022. http://www.theses.fr/2022UPASG063.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Cette thèse s’inscrit dans la lignée de travaux portant sur la modélisation bayésienne de fonctions par processus gaussiens, pour des applications en conception industrielle s’appuyant sur des simulateurs numériques dont le temps de calcul peut atteindre jusqu’à plusieurs heures. Notre travail se concentre sur le problème de sélection et de validation de modèle et s’articule autour de deux axes. Le premier consiste à étudier empiriquement les pratiques courantes de modélisation par processus gaussien stationnaire. Plusieurs problèmes sur la sélection automatique de paramètre de processus gaussien sont considérés. Premièrement, une étude empirique des critères de sélection de paramètres constitue le coeur de cet axe de recherche et conclut que, pour améliorer la prédictivité des modèles, le choix d’un critère de sélection parmi les plus courants est un facteur de moindre importance que le choix a priori d’une famille de modèles. Plus spécifiquement, l’étude montre que le paramètre de régularité de la fonction de covariance de Matérn est plus déterminant que le choix d’un critère de vraisemblance ou de validation croisée. De plus, l’analyse des résultats numériques montre que ce paramètre peut-être sélectionné de manière satisfaisante par les critères, ce qui aboutit à une recommandation permettant d’améliorer les pratiques courantes. Ensuite, une attention particulière est réservée à l’optimisation numérique du critère de vraisemblance. Constatant, comme Erickson et al. (2018), des inconsistances importantes entre les différentes librairies disponibles pour la modélisation par processus gaussien, nous proposons une série de recettes numériques élémentaires permettant d’obtenir des gains significatifs tant en termes de vraisemblance que de précision du modèle. Enfin, les formules analytiques pour le calcul de critère de validation croisée sont revisitées sous un angle nouveau et enrichies de formules analogues pour les gradients. Cette dernière contribution permet d’aligner le coût calculatoire d’une classe de critères de validation croisée sur celui de la vraisemblance. Le second axe de recherche porte sur le développement de méthodes dépassant le cadre des modèles gaussiens stationnaires. Constatant l’absence de méthode ciblée dans la littérature, nous proposons une approche permettant d’améliorer la précision d’un modèle sur une plage d’intérêt en sortie. Cette approche consiste à relâcher les contraintes d’interpolation sur une plage de relaxation disjointe de la plage d’intérêt, tout en conservant un coût calculatoire raisonnable. Nous proposons également une approche pour la sélection automatique de la plage de relaxation en fonction de la plage d’intérêt. Cette nouvelle méthode permet de définir des régions d’intérêt potentiellement complexes dans l’espace d’entrée avec peu de paramètres et, en dehors, d’apprendre de manière non-paramétrique une transformation permettant d’améliorer la prédictivité du modèle sur la plage d’intérêt. Des simulations numériques montrent l’intérêt de la méthode pour l’optimisation bayésienne, où l’on est intéressé par les valeurs basses dans le cadre de la minimisation. De plus, la convergence théorique de la méthode est établie, sous certaines hypothèses
This manuscript focuses on Bayesian modeling of unknown functions with Gaussian processes. This task arises notably for industrial design, with numerical simulators whose computation time can reach several hours. Our work focuses on the problem of model selection and validation and goes in two directions. The first part studies empirically the current practices for stationary Gaussian process modeling. Several issues on Gaussian process parameter selection are tackled. A study of parameter selection criteria is the core of this part. It concludes that the choice of a family of models is more important than that of the selection criterion. More specifically, the study shows that the regularity parameter of the Matérn covariance function is more important than the choice of a likelihood or cross-validation criterion. Moreover, the analysis of the numerical results shows that this parameter can be selected satisfactorily by the criteria, which leads to a practical recommendation. Then, particular attention is given to the numerical optimization of the likelihood criterion. Observing important inconsistencies between the different libraries available for Gaussian process modeling like Erickson et al. (2018), we propose elementary numerical recipes making it possible to obtain significant gains both in terms of likelihood and model accuracy. Finally, the analytical formulas for computing cross-validation criteria are revisited under a new angle and enriched with similar formulas for the gradients. This last contribution aligns the computational cost of a class of cross-validation criteria with that of the likelihood. The second part presents a goal-oriented methodology. It is designed to improve the accuracy of the model in an (output) range of interest. This approach consists in relaxing the interpolation constraints on a relaxation range disjoint from the range of interest. We also propose an approach for automatically selecting the relaxation range. This new method can implicitly manage potentially complex regions of interest in the input space with few parameters. Outside, it learns non-parametrically a transformation improving the predictions on the range of interest. Numerical simulations show the benefits of the approach for Bayesian optimization, where one is interested in low values in the minimization framework. Moreover, the theoretical convergence of the method is established under some assumptions
7

Ben, salem Malek. "Model selection and adaptive sampling in surrogate modeling : Kriging and beyond." Thesis, Lyon, 2018. https://tel.archives-ouvertes.fr/tel-03097719.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les surfaces de réponses, dites aussi méta-modèles sont généralement utilisées pour remplacer une fonction coûteuse. Ces méta-modèles sont également utilisés pour accélérer l’estimation d’une caractéristique de cette fonction (un optimum, une ligne de niveau, …). Dans ce travail, nous nous sommes intéressés à trois aspects de la méta-modélisation.1/ Il est difficile de choisir le méta-modèle ainsi que ses paramètres les plus appropriés pour un plan d’expérience donné. En effet, il est difficile d'évaluer la qualité d'un méta-modèle sans des données de validation. Nous proposons un critère de qualité de méta-modèle et nous présentons deux algorithmes de sélection en se basant sur ce critère.2/ L’avantage principal de la régression par processus gaussiens (GP) est qu'elle fournit partout une mesure d'incertitude associée à la prédiction. C’est un outil efficace pour construire des stratégies d’échantillonnage séquentiel. Nous proposons un algorithme permettant d'estimer une distribution de prédiction pour n'importe quel méta-modèle, qui permet d’étendre les méthodes d’échantillonnage séquentielles basées sur les GP à tous les méta-modèles. On l'appelle la distribution universelle de prédiction.3/ De nombreux problèmes de conception font appel à un grand nombre de variables ce qui rend l'exploration de l’espace paramétrique difficile. Dans certains cas seules quelques variables sont influentes. Nous proposons un algorithme réalisant simultanément l'apprentissage d'une caractéristique et la réduction de dimension. La méthode est basée sur des résultats théoriques issus du cadre de la régression par processus gaussien. Notre méthode s'appelle l’algorithme Split-and-Doubt
Surrogate models are used to replace an expensive-to-evaluate function to speed-up the estimation of a feature of a given function (optimum, contour line, …). Three aspects of surrogate modeling are studied in the work:1/ We proposed two surrogate model selection algorithms. They are based on a novel criterion called the penalized predictive score. 2/ The main advantage of probabilistic approach is that it provides a measure of uncertainty associated with the prediction. This uncertainty is an efficient tool to construct strategies for various problems such as prediction enhancement, optimization or inversion. We defined a universal approach for uncertainty quantification that could be applied for any surrogate model. It is based on a weighted empirical probability measure supported by cross-validation sub-models’ predictions.3/ We present the so-called Split-and-Doubt algorithm that performs sequentially both feature estimation and dimension reduction
8

Larvaron, Benjamin. "Modeling battery health degradation with uncertainty quantification." Electronic Thesis or Diss., Université de Lorraine, 2024. http://www.theses.fr/2024LORR0028.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Face au changement climatique, des mesures importantes doivent être prise pour décarboner l’économie. Cela inclus une transformation des secteurs du transport et de la production d’énergie. Ces transformations augmentent l’utilisation d’énergie électrique et posent la question du stockage notamment grâce aux batteries Lithium-ion. Dans cette thèse nous nous intéressons à la modélisation de la dégradation de la santé des batteries. Afin de quantifier les risques associés aux garantis de performance, les incertitudes doivent être prise en compte. La dégradation est un phénomène complexe mettant en jeux différents mécanismes physiques en interaction. Celle-ci va varier selon le type de batterie ou de conditions d’utilisation. Nous avons tout d’abord considéré le problème de la dégradation temporelle à une condition expérimentale de référence, par une approche « data-driven » par processus gaussiens. Cette approche présente l’avantage de permettre l’apprentissage de modèles complexes tout en incluant une quantification des incertitudes. Partant de l’état de l’art, nous avons proposé une adaptation de la régression par processus gaussien. Par un design de noyaux adapté le modèle permet de prendre explicitement en compte la variabilité de performance entre les batteries. Cependant, la régression par processus Gaussien repose généralement sur une hypothèse de stationnarité, trop restrictive pour prendre en compte l’évolution de l’incertitude au cours du temps. Nous avons donc exploité le cadre plus général de la régression par processus gaussiens chaînés, reposant sur l’inférence variationnelle. Avec un choix adapté de fonction de vraisemblance, ce cadre permet d’ajuster un modèle non paramétrique de l’évolution de la variabilité entre batteries, améliorant significativement la quantification des incertitudes. Cela produit un modèle satisfaisant aux cycles observés mais se généralise mal pour prédire l’évolution future de la dégradation avec des comportements incohérents d’un point de vue physique. En particulier, la monotonie et la concavité des courbes de dégradations ne sont pas toujours respectées. Nous avons proposé une approche, pour inclure ces contraintes dans la régression par processus gaussiens chaînés. Cela nous a ainsi permis d’améliorer les prévisions à un horizon de plusieurs centaines de cycles, permettant potentiellement de réduire le temps de test nécessaire des batteries, source de coûts importants pour les manufacturiers. Nous avons ensuite élargi le problème afin de prendre en compte l’effet des conditions expérimentales sur la dégradation des batteries. Nous avons tout d’abord tenté d’adapter les méthodes à base de processus gaussien en incluant les facteurs expérimentaux comme variables explicatives. Cette approche a fourni des résultats intéressants dans des cas de conditions avec des dégradations similaires. Cependant pour des conditions plus complexes les résultats deviennent incohérents avec les connaissances physiques et ne sont plus exploitables. Nous avons donc proposé une autre approche, en deux temps, séparant l’évolution temporelle de l’effet des facteurs. Dans un premier temps l’évolution temporelle est modélisée par les méthodes par processus gaussien précédentes. Le second temps, plus complexe, utilise les résultats de l’étape précédente, des distributions gaussiennes, pour apprendre un modèle des conditions expérimentales. Cela nécessite une approche de régression sur données complexes. Nous proposons l’utilisation des barycentres conditionnels de Wasserstein, bien adapté au cas des distributions. Deux modèles sont introduits. Le premier, utilisant le cadre de la régression structurée, permet d’inclure un modèle physique de la dégradation. Le second, utilisant la régression Fréchet, permet d’améliorer les résultats en interpolant les conditions expérimentales et en permettant la prise en compte de plusieurs facteurs expérimentaux
With the acceleration of climate change, significant measures must be taken to decarbonize the economy. This includes a transformation of the transportation and energy production sectors. These changes increase the use of electrical energy and raise the need for storage, particularly through Lithium-ion batteries.In this thesis, we focus on modeling battery health degradation. To quantify the risks associated with performance guarantees, uncertainties must be taken into account. Degradation is a complex phenomenon involving various interacting physical mechanisms. It varies depending on the battery type and usage conditions. We first addressed the issue of the temporal degradation under a reference experimental condition using a data-driven approach based on Gaussian processes. This approach allows for learning complex models while incorporating uncertainty quantification. Building upon the state-of-the art, we proposed an adaptation of Gaussian process regression. By designing appropriate kernels, the model explicitly considers performance variability among batteries. However, Gaussian process regression generally relies on a stationarity assumption, which is too restrictive to account for uncertainty evolution over time. Therefore, we have leveraged the broader framework of chained Gaussian process regression, based on variational inference. With a suitable choice of likelihood function, this framework allows for adjusting a non-parametric model of the evolution of the variability among batteries, significantly improving uncertainty quantification. While this approach yields a model that fits observed cycles well, it does not generalize effectively to predict future degradation with consistent physical behaviors. Specifically, monotonicity and concavity of degradation curves are not always preserved. To address this, we proposed an approach to incorporate these constraints into chained Gaussian process regression. As a result, we have enhanced predictions over several hundred cycles, potentially reducing the necessary battery testing time—a significant cost for manufacturers. We then expanded the problem to account for the effect of experimental conditions on battery degradation. Initially, we attempted to adapt Gaussian process-based methods by including experimental factors as additional explanatory variables. This approach yielded interesting results in cases with similar degradation conditions. However, for more complex settings, the results became inconsistent with physical knowledge and were no longer usable. As a result, we proposed an alternative two-step approach, separating the temporal evolution from the effect of factors. In the first step, temporal evolution was modeled using the previously mentioned Gaussian process methods. The second, more complex step utilized the results from the previous stage—Gaussian distributions—to learn a model of experimental conditions. This required a regression approach for complex data. We suggest using Wasserstein conditional barycenters, which are well-suited for distribution cases. Two models were introduced. The first model, within the structured regression framework, incorporates a physical degradation model. The second model, using Fréchet regression, improves results by interpolating experimental conditions and accounting for multiple experimental factors
9

Suri, Kunal. "Modeling the internet of things in configurable process models." Electronic Thesis or Diss., Université Paris-Saclay (ComUE), 2019. http://www.theses.fr/2019SACLL005.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Un nombre croissant d’entreprises internationales ont adopté les systèmes d'information centrés-processus pour profiter des avantages de l'utilisation de processus rationalisés basés sur des modèles prédéfinis, également appelés modèles de processus métier. Cependant, l'environnement commercial dynamique actuel exige de la flexibilité et la réutilisation systématique des processus métier, qui se manifeste par l'utilisation de modèles de processus configurables (CPM). Ceci évite le développement de processus à partir de zéro, qui est à la fois une démarche fastidieuse et sujette à de nombreuses erreurs, et facilite le partage d'une famille de variantes de processus métier pouvant être personnalisées en fonction d'exigences métier concrètes. Par ailleurs, l'adoption des ressources de l'Internet des objets (IoT) dans les processus d'entreprise inter-organisationnels est également en croissante constante. Cependant, ces ressources IoT doivent être utilisées efficacement. Ces dispositifs IoT sont hétérogènes en raison de leurs propriétés et de leurs fabricants (normes propriétaires), ce qui pose des problèmes d’interopérabilité. De plus, étant limitées, elles doivent être allouées (et consommées) en gardant à l'esprit des contraintes, tels que le coût énergétique, le coût de calcul, etc. pour éviter les pannes pendant leurs consommations par les processus. Il est donc essentiel de modéliser explicitement la perspective des ressources IoT dans les modèles de processus métiers lors de la phase de conception. Dans la littérature, divers travaux de recherche dans le domaine de gestion des processus métier (BPM) sont généralement axés sur la perspective du flux de contrôle. Bien qu'il existe certaines approches axées sur la perspective des ressources, elles sont généralement dédiées à la perspective des ressources humaines. Ainsi, les travaux sur l'intégration de la perspective des ressources IoT dans les processus métier sont limités pour résoudre des problèmes liés à l'hétérogénéité. De même, dans le contexte des CPM, il n’existe aucune prise en charge de la configuration permettant de modéliser la variabilité des ressources IoT au niveau des CPM. Cette variabilité résulte des fonctionnalités spécifiques aux ressources IoT, telles que la possibilité de partage, et réplication, qui sont pertinentes dans le contexte des processus métier. Dans cette thèse, nous abordons les limitations susmentionnées en proposant une approche pour intégrer la perspective IoT dans le domaine du BPM et soutenir le développement de CPM. Ce travail propose les contributions suivantes: (1) il fournit une description formelle de la perspective des ressources IoT, et de ses relations avec le domaine BPM à l'aide de la technologie sémantique, et (2) il fournit de nouveaux concepts pour permettre l'allocation de ressources IoT configurables dans les CPM. Pour valider notre approche et démontrer sa faisabilité, nous procédons comme suit: (1) implémenter des outils preuve de concept qui soutiennent le développement de processus métier et de modèles de processus configurables conscient des IoT, et (2) réaliser des expérimentations sur des jeux de données de modèles de processus qui démontrent l’efficacité de notre approche et affirment sa faisabilité
On the one hand, a growing number of multi-national organizations have embraced the Process-Aware Information Systems (PAIS) to reap the benefits of using streamlined processes that are based on predefined models, also called as Business Process (BP) models. However, today's dynamic business environment demands flexibility and systematic reuse of BPs, which is provided by the use of Configurable Process Models (CPMs). It avoids the development of processes from scratch, which is both time-consuming and error-prone, and facilitates the sharing of a family of BP variants that can be customized based on concrete business requirements. On the other hand, the adoption of the Internet of Things (IoT) resources in various cross-organizational BPs is also on a rise. However, to attain the desired business value, these IoT resources must be used efficiently. These IoT devices are heterogeneous due to their diverse properties and manufactures (proprietary standards), which leads to issues related to interoperability. Further, being resource-constrained, they need to be allocated (and consumed) keeping in the mind relevant constraints such as energy cost, computation cost, to avoid failures during the time of their consumption in the processes. Thus, it is essential to explicitly model the IoT resource perspective in the BP models during the process design phase. In the literature, various research works in Business Process Management (BPM) domain are usually focused on the control-flow perspective. While there do exist some approaches that focus on the resource perspective, they are typically dedicated to the human resource perspective. Thus, there is limited work on integrating the IoT resource perspective into BPs, without any focus on solving issues related to heterogeneity in IoT domain. Likewise, in the context of CPMs, there is no configuration support to model IoT resource variability at the CPM level. This variability is a result of specific IoT resource features such as Shareability and Replication that is relevant in the context of BPs. In this thesis, we address the aforementioned limitations by proposing an approach to integrate IoT perspective in the BPM domain and to support the development of IoT-Aware CPMs. This work contributes in the following manner: (1) it provides a formal description of the IoT resource perspective and its relationships with the BPM domain using semantic technology and (2) it provides novel concepts to enable configurable IoT resource allocation in CPMs. To validate our approach and to show its feasibility, we do the following: (1) implement proof of concept tools that assist in the development of IoT-aware BPs and IoT-aware CPMs and (2) perform experiments on the process model datasets. The experimentation results show the effectiveness of our approach and affirm its feasibility
10

Azzi, Soumaya. "Surrogate modeling of stochastic simulators." Electronic Thesis or Diss., Institut polytechnique de Paris, 2020. http://www.theses.fr/2020IPPAT009.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Cette thèse propose des outils statistiques pour étudier l’impact qu’a la morphologie d’une ville sur l’exposition des populations induite par un champ électromagnétique provenant d’une station de base. Pour cela l’exposition a été évaluée numériquement en propageant (via des techniques de lancer de rayons) les champs émis dans une antenne dans des villes aléatoires. Ces villes aléatoires ont les mêmes caractéristiques macroscopiques (e.g. hauteur moyenne des immeubles, largeur moyenne des rues et anisotropie) mais sont distinctes les unes des autres. Pour les mêmes caractéristiques de nombreuses villes aléatoires ont été générées et l’exposition induite a été calculée pour chacune. Par conséquent, chaque combinaison de variables correspond à plusieurs valeurs d’exposition. L’exposition est décrite par une distribution statistique non nécessairement gaussienne. Ce comportement stochastique est présent en plusieurs problèmes industriels et souvent les nombreuses simulations menées ont un cout de calcul important. Les travaux de cette thèse étudient la modélisation de substitution des fonctions aléatoires. Le simulateur stochastique est considéré comme un processus stochastique. On propose une approche non paramétrique basée sur la décomposition de Karhunen-Loève du processus stochastique. La fonction de substitution a l’avantage d’être très peu coûteuse à exécuter et à fournir des prédictions précises.En effet, l’objectif de la thèse consiste à évaluer la sensibilité de l’exposition aux caractéristiques morphologiques d’une ville. On propose une approche d’analyse de sensibilité tenant compte de l’aspect stochastique du modèle. L’entropie différentielle du processus stochastique est évaluée et la sensibilité est estimée en calculant les indices de Sobol de l’entropie. La variance de l’entropie est exprimée en fonction de la variabilité de chacune des variables d’entrée
This thesis is a contribution to the surrogate modeling and the sensitivity analysis on stochastic simulators. Stochastic simulators are a particular type of computational models, they inherently contain some sources of randomness and are generally computationally prohibitive. To overcome this limitation, this manuscript proposes a method to build a surrogate model for stochastic simulators based on Karhunen-Loève expansion. This thesis also aims to perform sensitivity analysis on such computational models. This analysis consists on quantifying the influence of the input variables onto the output of the model. In this thesis, the stochastic simulator is represented by a stochastic process, and the sensitivity analysis is then performed on the differential entropy of this process.The proposed methods are applied to a stochastic simulator assessing the population’s exposure to radio frequency waves in a city. Randomness is an intrinsic characteristic of the stochastic city generator. Meaning that, for a set of city parameters (e.g. street width, building height and anisotropy) does not define a unique city. The context of the electromagnetic dosimetry case study is presented, and a surrogate model is built. The sensitivity analysis is then performed using the proposed method
11

Yongsiriwit, Karn. "Modeling and mining business process variants in cloud environments." Electronic Thesis or Diss., Université Paris-Saclay (ComUE), 2017. http://www.theses.fr/2017SACLL002.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
De plus en plus les organisations adoptent les systèmes d'informations sensibles aux processus basés sur Cloud en tant qu'un environnement pour gérer et exécuter des processus dans le Cloud dans l'objectif de partager et de déployer leurs applications de manière optimale. Cela est particulièrement vrai pour les grandes organisations ayant des succursales opérant dans des différentes régions avec des processus considérablement similaires. Telles organisations doivent soutenir de nombreuses variantes du même processus en raison de la culture locale de leurs succursales, de leurs règlements, etc. Cependant, le développement d'une nouvelle variante de processus à partir de zéro est sujet à l'erreur et peut prendre beaucoup du temps. Motivés par le paradigme "la conception par la réutilisation", les succursales peuvent collaborer pour développer de nouvelles variantes de processus en apprenant de leurs processus similaires. Ces processus sont souvent hétérogènes, ce qui empêche une interopérabilité facile et dynamique entre les différentes succursales. Une variante de processus est un ajustement d'un modèle de processus afin de s'adapter d'une façon flexible aux besoins spécifiques. De nombreuses recherches dans les universités et les industries visent à faciliter la conception des variantes de processus. Plusieurs approches ont été développées pour aider les concepteurs de processus en recherchant des modèles de processus métier similaires ou en utilisant des modèles de référence. Cependant, ces approches sont lourdes, longues et sujettes à des erreurs. De même, telles approches recommandent des modèles de processus pas pratiques pour les concepteurs de processus qui ont besoin d'ajuster une partie spécifique d'un modèle de processus. En fait, les concepteurs de processus peuvent mieux développer des variantes de processus ayant une approche qui recommande un ensemble bien défini d'activités à partir d'un modèle de processus défini comme un fragment de processus. Les grandes organisations multi-sites exécutent les variantes de processus BP dans l'environnement Cloud pour optimiser le déploiement et partager les ressources communes. Cependant, ces ressources Cloud peuvent être décrites en utilisant des différents standards de description des ressources Cloud ce qui empêche l'interopérabilité entre les différentes succursales. Dans cette thèse, nous abordons les limites citées ci-dessus en proposant une approche basée sur les ontologies pour peupler sémantiquement une base de connaissance commune de processus et de ressources Cloud, ce qui permet une interopérabilité entre les succursales de l'organisation. Nous construisons notre base de connaissance en étendant les ontologies existantes. Ensuite, nous proposons une approche pour exploiter cette base de connaissances afin de supporter le développement des variantes BP. De plus, nous adoptons un algorithme génétique pour allouer d'une manière optimale les ressources Cloud aux BPs. Pour valider notre approche, nous développons deux preuves de concepts et effectuons des expériences sur des ensembles de données réels. Les résultats expérimentaux montrent que notre approche est réalisable et précise dans des cas d'utilisation réels
More and more organizations are adopting cloud-based Process-Aware Information Systems (PAIS) to manage and execute processes in the cloud as an environment to optimally share and deploy their applications. This is especially true for large organizations having branches operating in different regions with a considerable amount of similar processes. Such organizations need to support many variants of the same process due to their branches' local culture, regulations, etc. However, developing new process variant from scratch is error-prone and time consuming. Motivated by the "Design by Reuse" paradigm, branches may collaborate to develop new process variants by learning from their similar processes. These processes are often heterogeneous which prevents an easy and dynamic interoperability between different branches. A process variant is an adjustment of a process model in order to flexibly adapt to specific needs. Many researches in both academics and industry are aiming to facilitate the design of process variants. Several approaches have been developed to assist process designers by searching for similar business process models or using reference models. However, these approaches are cumbersome, time-consuming and error-prone. Likewise, such approaches recommend entire process models which are not handy for process designers who need to adjust a specific part of a process model. In fact, process designers can better develop process variants having an approach that recommends a well-selected set of activities from a process model, referred to as process fragment. Large organizations with multiple branches execute BP variants in the cloud as environment to optimally deploy and share common resources. However, these cloud resources may be described using different cloud resources description standards which prevent the interoperability between different branches. In this thesis, we address the above shortcomings by proposing an ontology-based approach to semantically populate a common knowledge base of processes and cloud resources and thus enable interoperability between organization's branches. We construct our knowledge base built by extending existing ontologies. We thereafter propose an approach to mine such knowledge base to assist the development of BP variants. Furthermore, we adopt a genetic algorithm to optimally allocate cloud resources to BPs. To validate our approach, we develop two proof of concepts and perform experiments on real datasets. Experimental results show that our approach is feasible and accurate in real use-cases
12

Liu, Baolong. "Dynamic modeling in sustainable operations and supply chain management." Thesis, Cergy-Pontoise, Ecole supérieure des sciences économiques et commerciales, 2018. http://www.theses.fr/2018ESEC0006.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Cette thèse articule plusieurs questions importantes dans les opérations durables et la gestion de la chaîne d'approvisionnement, non seulement afin de fournir des idées pour améliorer la performance des entreprises, mais aussi pour inciter ces dernières à adopter les moyens appropriés pour un meilleur environnement de notre société. Le lien entre le niveau de l'entreprise et le niveau de la société est que l'amélioration de la performance écologique par une meilleure gestion des opérations dans les entreprises et les chaînes d'approvisionnement est un élément indispensable pour améliorer l'environnement dans notre société. Prenons la Chine comme exemple. Depuis quelques années, le gouvernement a commencé à favoriser toutes les initiatives pour résoudre les problèmes de pollution de l'air. Un moyen important et utile est de mettre en place une réglementation stricte et de surveiller les efforts des entreprises qui seront passibles d'amendes sérieuses si certaines normes ne sont pas respectées par des inspections aléatoires. Par conséquent, les entreprises doivent coopérer pour améliorer leur rentabilité et, plus important encore, leurs impacts environnementaux. Grâce à cet effort prolongé, malgré le fait que la situation future est incertaine, la qualité de l'air s'est progressivement améliorée en Chine. Cette thèse, dans un cadre plus général, vise à fournir aux entreprises des informations importantes afin qu'elles soient non seulement en mesure de respecter la réglementation, mais aussi en mesure d'apporter véritablement leur contribution à la construction d'un environnement meilleur pour les générations futures. Notre objectif fondamental est d'obtenir une compréhension approfondie des compromis auxquels les entreprises sont confrontées, de modéliser les problèmes de recherche de solutions possibles et d'aider les entreprises/chaînes d'approvisionnement à améliorer leur performance d'un point de vue théorique. Ensuite, la thèse aidera indirectement les entreprises à réaliser l'importance du développement de moyens de gestion durable des opérations et de la chaîne d'approvisionnement sur notre société. La thèse est organisée comme la structure suivante. Le chapitre 3 est le premier essai, Environmental Collaboration and Process Innovation in Supply Chain Management with Coordination. Le chapitre 4 comprend le contenu du deuxième essai, Remanufacturing of Multi-Component Systems with Product Substitution, et le troisième essai, Joint Dynamic Pricing and Return Quality Strategies Under Demand Cannibalization , est présenté au chapitre 5. Le chapitre 6 donne les remarques finales générales des trois essais, suivies de la liste de référence, et les annexes
This thesis articulates several important issues in sustainable operations and supply chain management not only to provide insights for enhancing the performance of firms but also to appeal to the enterprises to adopt appropriate means for a better environment of our society. The link from firm level to society level is that, to improve the green performance through better operations management efficiency in firms and supply chains, is an indispensable element to ameliorate the environment in our society. Taking China as an example. Since a few years ago (The Straitstimes, 2017; Stanway & Perry, 2018), the government started to spare no effort in resolving the air pollution problems. An important and useful means is to put strict regulations and monitoring the efforts of firms which will face serious fine if certain standards are not met by random inspection. Therefore, firms have to cooperate for the betterment of its profitability and, more importantly, the environmental impacts. Throughout the endeavor, despite the uncertain future situation, the air quality has gradually improved in China (Zheng, 2018). This thesis, in a more general setting, aims to provide important insights to firms so that they are not only able to meet the regulations but genuinely to make contributions to building a better environment for our future generations. Basically, our goal is to obtain deep understanding of the trade-offs with which companies are faced, and to model the problems for seeking possible solutions and helping firms/supply chains to enhance their performance from a theoretical point of view. Then, indirectly, the work will help firms to realize the importance of developing sustainable operations and supply chain management means on our society. The structure of the thesis is organized as follows. Chapter 2 introduces the thesis in French. Chapter 3 is the first essay, Environmental Collaboration and Process Innovation in Supply Chain Management with Coordination. Chapter 4 includes the contents of the second essay, Remanufacturing of Multi-Component Systems with Product Substitution , and the third essay, Joint Dynamic Pricing and Return Quality Strategies Under Demand Cannibalization, is introduced in Chapter 5. Chapter 6 gives the general concluding remarks of the three essays which is followed by the reference list and the appendices
13

Démoulin, Baptiste. "QM/MM modeling of the retinal chromophore in complex environments." Thesis, Lyon, 2017. http://www.theses.fr/2017LYSEN049/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Nous avons appliqué notre interface QM/MM pour modéliser les propriétés photophysiques et photochimiques du chromophore rétinal dans plusieurs environnements.Nous avons commencé par montrer que la méthylation du squelette carbonné du rétinal, qui transforme une photochimie lente en un processus ultra-rapide, comme dans une protéine, dans une solution de méthanol, modifie l’interaction entre les états excités du rétinal, et favorise la formation d’une espèce transitoire réactive. Nous avons ensuite étudié l’effet direct de l’environnement dans le cas de mimiques de la rhodopsine, où des mutations ponctuelles de quelques acides aminés donnent des systèmes qui absorbent sur toute la gamme du visible. En combinaison avec la spectroscopie pompe-sonde ultra-rapide, notre méthode a montré que le potentiel électrostatique autour du rétinal peut affecter la forme des surfaces d’énergies potentielles excitées, et peut moduler le temps de vie de l’état excité ainsi que le lieu de photo-isomérisation. Ensuite, nous avons montré que l’état de protonation standard des acides aminés proches du rétinal dans la bacteriorhodopsine mènent à une surestimation de l’énergie d’absorption,alors que la protonation du résidu Asp212 donne des résultats plus précis ; nous souhaitons maintenant valider ce modèle par le calcule des propriétés de fluorescence et de temps de vie de l’état excité. Enfin, nous avons modélisé la photophysique de la base de Schiff non-protonée d’un pigment UV, où une photochimie originale, et non encore documentée, a lieu, impliquant notamment un état doublement excité. Ces études ont montré la robustesse de notre potentiel QM/MM pour modéliser une large gamme d’environnements
We have used our QM/MM interface to model the photochemical and photophysical properties of the retinal chromophore in several environments.First, we proved that methylation of the retinal backbone, which converts a slow photochemistry to an ultra-fast protein-like behaviour in methanol solution, modifies the interplay between the retinal excited states, favouring the formation of a photo-active transient intermediate. Then, we have studied the direct effect of the environment in the case of rhodopsin mimics, where point mutations of a few amino-acids lead to systems that can absorb in the wide visible range. Combined with ultra-fast pump-probe spectroscopy, our method has shown that the electrostatic potential around the retinal can affect the shape of the excited potential energy surface, and is able to tune the excited state lifetime as well as the location of the photoisomerization. Next, we showed that the currently accepted protonation state of amino-acids in the vicinity of the retinal in bacteriorhodopsin leads to a strongly blue shifted absorption, while the protonation of Asp212 leads to accurate results; we now aim toward a validation of this protonation by computation of fluorescence and excited state lifetime. Finally, we have modeled the photophysics of the unprotonated Schiff base in a UV-pigment, where an original an previously unreported photochemistry takes place, especially with the direct involvement of a doubly excited state. These studies have shown the reliability of our QM/MM potential for modeling a wide range of different environments
14

Soueidan, Hayssam. "Discrete event modeling and analysis for systems biology models." Thesis, Bordeaux 1, 2009. http://www.theses.fr/2009BOR13916/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les travaux effectués durant cette thèse portent sur la spécification, l'analyse et l'application de systèmes a événements discrets pour la modélisation de processus biologiques stochastiques en biologie des systèmes. Le point de départ de cette thèse est le langage de modélisation AltaRica, que nous étendons afin de permettre de décrire des événements temporisés selon des distributions de probabilités quelconques (dégénérées, discrètes et continues). Nous définissons ensuite la sémantique de ce langage en terme d'automates de mode stochastiques et présentons trois opérations de compositions permettant de modéliser des systèmes hiérarchiques avec événements synchronisés et partage de valeurs via un mécanisme de connexion. Nous donnons ensuite au automates de mode stochastiques une sémantique en termes de systèmes de transitions dont les transitions sont étiquetées par des distributions de probabilités et des probabilités de transitions instantanées. Nous caractérisons ensuite 6 sous classes de ces systèmes de transitions et donnons pour chacune de ces classes un algorithme de simulation ainsi qu'une mesure de probabilité sur les chemins finis. Nous montrons que pour certaines de ces classes, notre sémantique est conforme avec les mesures de probabilité de chemin usuellement associées aux chaînes de Markov a temps discret, a temps continu et aux processus semi-Markoviens généralisés. Nous abordons ensuite le problème de la réutilisation de modèles continus existant dans un système discret. Nous donnons une méthode d'abstraction permettant de représenter un ensemble de trajectoires bornées ou non d'un modèle continu sous forme d'un système de transition stochastique fini. A travers des exemples tirés de la littérature, nous montrons que notre abstraction préserve les propriétés "qualitatives" (par exemple oscillations, hystérie) des modèles continus et qu'une comparaison entre trajectoires basée sur leurs représentations en termes de systèmes de transitions permet de regrouper les trajectoires en fonction de comportements qualitatifs plus fins que ceux permis par la théorie des bifurcations. Finalement, nous étudions a l'aide de ces modèles des processus liés a la division cellulaire chez les levures. En particulier, nous définissons un modèle pour le vieillissement cellulaire dans une population de levure où le comportement individuel d'une cellule est régi par une équation différentielle ordinaire et où le processus de division est régi par un système de transition. Nous montrons a l'aide de ce modèle que la survie d'une population de levure de type Schizosaccharomyces Pombe, qui se divisent par une fission médiane, n'est possible que grâce a un mécanisme de distribution non symétrique des dégâts oxydatifs entre la progéniture et la cellule souche. Cette hypothèse fut validée expérimentalement lors d'une collaboration avec le laboratoire de micro-biologie de Göteborg
A general goal of systems biology is to acquire a detailed understanding of the dynamics of living systems by relating functional properties of whole systems with the interactions of their constituents. Often this goal is tackled through computer simulation. A number of different formalisms are currently used to construct numerical representations of biological systems, and a certain wealth of models is proposed using ad hoc methods. There arises an interesting question of to what extent these models can be reused and composed, together or in a larger framework. In this thesis, we propose BioRica as a means to circumvent the difficulty of incorporating disparate approaches in the same modeling study. BioRica is an extension of the AltaRica specification language to describe hierarchical non-deterministic General Semi-Markov processes. We first extend the syntax and automata semantics of AltaRica in order to account for stochastic labeling. We then provide a semantics to BioRica programs in terms of stochastic transition systems, that are transition systems with stochastic labeling. We then develop numerical methods to symbolically compute the probability of a given finite path in a stochastic transition systems. We then define algorithms and rules to compile a BioRica system into a stand alone C++ simulator that simulates the underlying stochastic process. We also present language extensions that enables the modeler to include into a BioRica hierarchical systems nodes that use numerical libraries (e.g. Mathematica, Matlab, GSL). Such nodes can be used to perform numerical integration or flux balance analysis during discrete event simulation. We then consider the problem of using models with uncertain parameter values. Quantitative models in Systems Biology depend on a large number of free parameters, whose values completely determine behavior of models. Some range of parameter values produce similar system dynamics, making it possible to define general trends for trajectories of the system (e.g. oscillating behavior) for some parameter values. In this work, we defined an automata-based formalism to describe the qualitative behavior of systems’ dynamics. Qualitative behaviors are represented by finite transition systems whose states contain predicate valuation and whose transitions are labeled by probabilistic delays. We provide algorithms to automatically build such automata representation by using random sampling over the parameter space and algorithms to compare and cluster the resulting qualitative transition system. Finally, we validate our approach by studying a rejuvenation effect in yeasts cells population by using a hierarchical population model defined in BioRica. Models of ageing for yeast cells aim to provide insight into the general biological processes of ageing. For this study, we used the BioRica framework to generate a hierarchical simulation tool that allows dynamic creation of entities during simulation. The predictions of our hierarchical mathematical model has been validated experimentally by the micro-biology laboratory of Gothenburg
15

Zhang, Min. "Modélisation et analyse de processus biologiques dans des algèbres de processus." Phd thesis, Université Paris-Diderot - Paris VII, 2007. http://tel.archives-ouvertes.fr/tel-00155301.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Dans cette thèse, trois calculs de processus sont étudiés et appliqués à l'analyse de processus biologiques : une variante du π -calcul introduite ici, le Iπ-calcul; le κ-calcul de Danos et Laneve et sa variante à grain plus fin, le mκ-calcul; et les systèmes réactifs bigraphiques de Milner. Le manuscrit comporte trois parties.
Dans la première partie, nous modélisons la transduction du signal, et plus spécifiquement le processus d'activation de la protéine "ras". On introduit une nouvelle extension du π-calcul, le Iπ-calcul, pour modéliser ce processus biologique en présence d'aberrance. Le calcul est obtenu en ajoutant deux actions aberrantes au Iπ-calcul. Le Iπ-calcul, quoique déjà assez expressif pour exprimer l'aberrance, peut être encore précisé par l'introduction d'informations supplémentaires dans la syntaxe, soit sous forme de "tags" soit sous forme de types. Les tags sont plus intuitifs, mais ils introduisent de la redondance, qui est éliminée dans la présentation de cette information sous forme de types. Nous montrons l'équivalence entre les deux espèces de décoration. Le système de types / tags présenté ici est très rudimentaire, mais notre espoir est de l'enrichir pour intégrer des paramètres quantitatifs tels que la température, la concentration, etc... dans la modélisation des processus biologiques.
Dans la seconde partie, nous abordons d'un point de vue formel la question de l'auto-assemblage dans le κ-calcul, un langage de description d'interactions protéine-protéine. Nous définissons un sous-ensemble de règles de calcul réversibles nous permettant d'assurer un codage sans blocage du calcul "à gros grain" (le κ-calcul) dans un calcul "à grain fin" (le mκ-calcul). Nous prouvons la correction de cette simulation de manière interne (à l'aide des règles réversibles), améliorant ainsi les résultats de Danos et Laneve.
Enfin, dans une partie plus prospective, nous suggérons comment l'on peut utiliser les bigraphes pour modéliser et analyser les processus biologiques. Nous montrons d'abord commment coder l'exemple "ras" dans ce formalisme. Puis nous indiquons sur un exemple comment l'on peut traduire le κ--calcul dans les bigraphes.
16

Fodra, Pietro. "Modeling of the price microstructure and applications of stochastic control to algorithmic trading." Sorbonne Paris Cité, 2015. http://www.theses.fr/2015USPCC090.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Dans cette thèse, on s'occupe de la modélisation du prix des actifs dans un carnet d'ordre (limit order book) et de l'applications des techniques du contrôle optimal au trading algorithmique, en particulier du market making. Pour les actifs avec petit tick, on développe un algorithme de market making dans un carnet ou les arrivés d'ordres suivent une loi de Poisson avec moyenne qui décroît exponentiellement avec la distance de l'ordre du mid-price. Grace à des technique des développement asymptotique, on obtient des résultats explicites pour une classe très large de modèles de prix, dont on suppose connaitre seulement les deux premiers moment. Pour les actifs à grand tick, on propose un nouveau modèle basé sur un processus semi-Markovian, avec lequel on réplique des phénomènes de marché connu comme la reversion à la moyenne, le comportement Brownian à large échelle, et la dépendance de l'estimateur de la variance de la fréquence d'observation. Dans cet environment, on décrit un algorithme de market making en utilisant des techniques de contrôle optimal et développement asymptotique, en réduisant la partie numérique au minimum. Finalement, on améliore le modèle precedent en utilisant des VLMC (Chaînes de Markov à longueur variable), qui permettent de décrire la longue mémoire du prix, et, qui, quitte à abandoner des formules explicites, permettent d'obtenir des interessantes applications au trading algorithmique
In this thesis, we take care of the modelling of the price of assets in the limit order book and of the application of the techniques of the optimal control in the algorithmic trading, in particular of market making. For assets with small tick, we develop an algorithm of market making in a book where the arrivais of order follow a Poisson law with average which decreases exponentially with the distance of the order from the mid-price. Thanks to techniques of asymptotic developments, we obtain explicit results for a very wide class of models, for which we suppose to know oniy the first two moments. For assets with large tick, we propose a new model based on a semi-Markov process, thanks to which we are able to replicate some stylized facts as the noise mean-reversion, the large-scale Brownian behavior, and the dependence of the variance estimator on the sampling frequency. In this environment, we describe an algorithm of market making using techniques of optimal control and asymptotic development, amazingly reducing the numerical part. Finally, we improve the previous model by using VLMCs (Variable length Markov chains), which allow to describe the long memory of the price, and, that, even if losing explicit formulae, allow to obtain interesting applications in the algorithmic trading
17

Li, Haizhou. "Modeling and verification of probabilistic data-aware business processes." Thesis, Clermont-Ferrand 2, 2015. http://www.theses.fr/2015CLF22563/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Un large éventail de nouvelles applications met l’accent sur la nécessité de disposer de modèles de processus métier capables de manipuler des données imprécises ou incertaines. Du fait de la présence de données probabilistes, les comportements externes de tels processus métier sont non markoviens. Peu de travaux dans la littérature se sont intéressés à la vérification de tels systèmes. Ce travail de thèse étudie les questions de modélisation et d’analyse de ce type de processus métier. Il utilise comme modèle formel pour décrire les comportements des processus métier un système de transitions étiquetées dans lequel les transitions sont gardées par des conditions définies sur une base de données probabiliste. Il propose ensuite une approche de décomposition de ces processus qui permet de tester la relation de simulation entre processus dans ce contexte. Une analyse de complexité révèle que le problème de test de simulation est dans 2-EXPTIME, et qu’il est EXPTIME-difficile en termes de complexité d’expression, alors que du point de vue de la complexité en termes des données, il n’engendre pas de surcoût supplémentaire par rapport au coût de l’évaluation de requêtes booléennes sur des bases de données probabilistes. L’approche proposée est ensuite étendue pour permettre la vérification de propriétés exprimées dans les logiques P-LTL et P-CTL. Finalement, un prototype, nommé ‘PRODUS’, a été implémenté et utilisé dans le cadre d’une application liée aux systèmes d’information géographiques pour montrer la faisabilité de l’approche proposée
There is a wide range of new applications that stress the need for business process models that are able to handle imprecise data. This thesis studies the underlying modelling and analysis issues. It uses as formal model to describe process behaviours a labelled transitions system in which transitions are guarded by conditions defined over a probabilistic database. To tackle verification problems, we decompose this model to a set of traditional automata associated with probabilities named as world-partition automata. Next, this thesis presents an approach for testing probabilistic simulation preorder in this context. A complexity analysis reveals that the problem is in 2-exptime, and is exptime-hard, w.r.t. expression complexity while it matches probabilistic query evaluation w.r.t. data-complexity. Then P-LTL and P-CTL model checking methods are studied to verify this model. In this context, the complexity of P-LTL and P-CTL model checking is in exptime. Finally a prototype called ”PRODUS” which is a modeling and verification tool is introduced and we model a realistic scenario in the domain of GIS (graphical information system) by using our approach
18

Lagache, Thibault. "Modeling the early steps of viral infection : a stochastic approach." Paris 6, 2009. http://www.theses.fr/2009PA066470.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
19

Carré, Jérôme. "The modeling and detection of gravitational waves for Lisa." Paris 7, 2012. http://www.theses.fr/2012PA077194.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les ondes gravitationnelles (OGs) sont des perturbations de l'espace-temps se propageant à la vitesse de la lumière. Elles sont des prédictions directes de la théorie de la Relativité Générale. Pour atteindre la bande de fréquence de 10^-4 à 1Hz, l'ESA et la NASA ont proposé, de manière commune, le premier détecteur spatial d'OGs, LISA. La haute sensibilité de LISA aux OGs oblige la communauté à développer et implémenter de nouvelles méthodes en analyse de données, telles que la modélisation analytique de formes d'onde, la relativité numérique ou les algorithmes de recherche stochastiques. Notre travail prend place dans cette tentative, et nous traiterons différents problèmes. Après avoir donné un résumé sur l'astronomie des OGs, pour les détecteurs spatiaux en particulier, nous traitons la présence d'interruptions dans les données, dues à des raisons techniques. Nous proposons une première tentative pour gérer ces interruptions, et nous examinons l'impact de leur fréquence sur l'estimation des paramètres pour les binaires galactiques naine blanche-naine blanche. Nous avons essayé d'utiliser le fenêtrage afin d'adoucir les discontinuités. Nous avons trouvé que le meilleur est d'utiliser le fenêtrage de Hann. Enfin, nous avons regardé l'impact de la fréquence des interruptions et nous avons conclu qu'une fréquence d'une interruption par semaine est un meilleur choix qu'une interruption par jour. Puis nous nous sommes intéressés aux binaires à rapport de masses extrême spiralantes et nous avons vu que pour générer leur forme d'onde dans le cas d'orbites circulaires et équatoriales nous utilisons une approximation post-newtonienne (PN) pour le flux de l'OG. Nous avons construit un flux PN plus complet que celui des études précédentes et nous avons essayé différentes variantes pour utiliser les méthodes de re-sommation de Padé et Chebyshev. Nous avons trouvé que le flux doit être traité différemment selon le spin du trou noir central. Et, de manière générale sont obtenus lorsque nous utilisons le flux Chebyshev inversé. Pour finir, nous examinons une nouvelle méthode pour l'estimation des paramètres des binaires de trous noirs supermassifs, la chaine de Markov hamiltonienne (HMC). Nous présentons la HMC et nous montrons comment l'optimiser pour les binaires de trous noirs supermassifs. Puis nous comparons la HMC avec une chaine de Markov standard (MCMC) et nous montrons que la HMC converge plus rapidement que la MCMC
Gravitational waves (GWs) are spacetime metric perturbations propagating at the speed of light. They are direct predictions of the General Theory of Relativity. To reach the 10^-4 and 1Hz frequency band, ESA and NASA proposed, in a joint mission, the first GW space detector, the Laser Interferometer Space Antenna (LISA). The high sensibility of LISA to GWs obliges the community to developed and implement new methods in data analysis like analytical waveform modeling, numerical relativity or stochastic search alogrithms. Our work takes its place in this attempt, and we will treat different problems. After giving an overview on GW astronomy, and particularly for space based detectors, we treat of the presence of gaps in the data stream, caused by technical reasons. We propose a first-step attempt to deal with gaps, and examine the effect of their frequency on parameter estimation for white dwarf - white dwarf galactic binary systems. We decided to use a window function to smooth this discontinuity. We found that the best choice is to use a Hann function. Finally we looked at the impact of the gap frequency and we conclude that a frequency of a gap per week is a better choice than a gap per day. Then we look at extreme mass ratio inspirals and we see that to generate their waveform in the case of circular equatorial orbits we use a post-Newtonian approximation for the flux. We build a more complet post-Newtonian flux than previous works and we try different variant to use the Padé and the Chebyshev re-summation techniques. We found that the flux needs to be treated differently depending of the spin of the central black hole. And, in a general way the best results were obtained when using an inverted Chebyshev flux. Finally we examine a new method for parameter estimation for supermassive black holes, the Hamiltonian Markov chain (HMC). We present the HMC and we show how to tune it for supermassive black hole binaries. Then we compare the HMC with the Markov chain Monte Carlo (MCMC) and we will show that the HMC has a faster convergence than the MCMC
20

Charpentier, Frédéric. "Maîtrise du processus de modélisation géométrique et physique en conception mécanique." Phd thesis, Université Sciences et Technologies - Bordeaux I, 2014. http://tel.archives-ouvertes.fr/tel-01016665.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
La conception de produits a pour objectif de définir techniquement un produit en satisfaisant les besoins de l'ensemble des clients du cycle de vie du produit. Les enjeux industriels conduisent à développer des modèles et des outils d'aide à la conception afin de répondre aux besoins clients tout en optimisant le triptyque coût-qualité délais. L'objectif de cette thèse est de proposer une vision globale permettant d'appréhender les différents types de modélisation. Pour atteindre cet objectif, une analyse globale de ces notions est nécessaire afin d'obtenir une représentation commune du système pour les différentes activités de conception et de simulation. L'intérêt de cette approche est de pouvoir mettre en évidence les dépendances et les relations entre ces activités. Cette approche doit permettre d'appréhender les différents niveaux de détails (systémique) lors de la décomposition fonctionnelle et structurelle du produit. Elle doit également permettre de suivre l'élaboration des modèles physiques pour la simulation. Nous proposons une traçabilité du processus de conception et du processus de modélisation permettant de remettre en cause, le cas échéant, les choix de conception et les hypothèses de modélisation. Ce travail est fondé sur des concepts de GeoSpelling comme le " skin modèle ", les opérations et les propriétés. Ils sont enrichis d'autres concepts comme les modèles finis et infinis et les modèles primitif et de simulation.
21

Coron, Camille. "Stochastic modeling and eco-evolution of a diploid population." Palaiseau, Ecole polytechnique, 2013. http://pastel.archives-ouvertes.fr/docs/00/91/82/57/PDF/These.pdf.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
0n s'intéresse à la modélisation probabiliste pour l'évolution génétique de populations diploïdes, dans un contexte d'éco-évolution. La population considérée est modélisée par un processus de naissance et mort multi-types, avec interaction, et dont les taux de naissance modélisent la reproduction mendélienne. En particulier, la taille de la population considérée n'est pas constante et peut être petite. Une première partie du travail est consacrée à l'étude probabiliste du vortex d'extinction démo-génétique, un phénomène au cours duquel la taille d'une petite population décroît de plus en plus rapidement suite à des fixations de plus en plus fréquentes de mutations délétères. Nous donnons notamment une formule pour la probabilité de fixation d'un allèle légèrement délétère en fonction de la composition génétique de la population et nous prouvons l'existence d'un vortex d'extinction sous une hypothèse de mutations rares. Nous donnons par ailleurs des résultats numériques et une analyse biologique détaillée des comportements obtenus. Nous étudions en particulier l'impact du vortex sur la dynamique de la taille moyenne de population, et nous quantifions ce phénomène en fonction des paramètres écologiques. Dans une deuxième partie, sous une asymptotique de grande taille de population et événements de naissance et mort fréquents, nous étudions d'abord la convergence vers une dynamique lente-rapide et le comportement quasi-stationnaire d'une population diploïde caractérisée par sa composition génétique à un locus bi-allélique. Nous étudions en particulier la possibilité de coexistence en temps long de deux allèles dans la population conditionnée à ne pas être éteinte. Ensuite nous généralisons cette dynamique lente-rapide à une population présentant un nombre fini quelconque d'allèles. La population est alors modélisée par un processus à valeurs mesures dont nous prouvons la convergence lorsque le nombre d'allèles tend vers l'infini vers un superprocessus de Fleming-Viot généralisé, avec une taille de population variable et une sélection diploïde additive
We study the random modeling and the genetic evolution of diploid populations, in an eco-evolutionary context. The population is always modeled by a multi-type birth-and-death process with interaction and whose birth rates are designed to model Mendelian reproduction. In particular, the population size is not assumed to be constant, and can be small. In a first part, we provide a probabilistic study of the mutational meltdown, a phenomenon in which the size of a small population decreases more and more rapidly due to more and more frequent fixations of deleterious mutations. We give a formula for the fixation probability of a slightly deleterious allele, as a function of the initial genetic composition of the population and we prove the existence of a mutational meltdown under a rare mutations hypothesis. Besides, we give numerical results and detailed biological interpretations of the observed behaviors. In particular, we study the impact of the mutational meltdown on the mean population size dynamics and we quantify this phenomenon in terms of demographic parameters. In a second part, under an approximation of large population size and frequent birth and death events, we first study the convergence toward a slow-fast stochastic dynamics and the quasi-stationary behavior of a diploid population characterized by its genetic composition at one bi-allelic locus. In particular, we study the possibility of a long time coexistence of the two alleles in the population conditioned on non extinction. Next, we generalize this slow-fast dynamics for a population presenting an arbitrary finite number of alleles. The population is finally modeled by a measure-valued stochastic process that converges when the number of alleles goes to infinity, toward a generalized Fleming-Viot superprocess with randomly evolving population size and diploid additive selection
22

Lin, Yishuai. "An organizational ontology for multiagent-based Enterprise Process modeling and automation." Phd thesis, Université de Technologie de Belfort-Montbeliard, 2013. http://tel.archives-ouvertes.fr/tel-00977726.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
The work presented in this PhD thesis defines a new approach for the modeling and the conceptualization of enterprise business processes in the perspective of building intelligent assistance software tools to support these processes. The proposed approach defines an organizational ontology, named K-CRIO. Its description is based on the Ontology Web Language. To illustrate our work, an intelligent assistance system has been designed and implemented according to the result from the modeling and conceptualization of a specific business process with the K-CRIO Ontology. It is a web-based application that integrates and takes full advantage of multi-agent systems.The K-CRIO Ontology is an Ontology dedicated to the study of organizations and the analysis of business processes adopting an organizational point of view. Specifically, it is used to understand, analyze and reason about organizations and the processes they implement. The targeted organizations are those composed of entities involved throughout products' design and, to do so, following a defined business process. The range of this type of organizations is quite wide. We have thus limited our study to organizations that produce software as the final process goal, specifically IT enterprises delivering software products or services. In this context, the K-CRIO ontology could be used to model structure of the considered organizations and model human activities appearing in their business processes. This ontology could be used to support process assistance within the described organizations. More specifically, the ontology could provide means for reasoning, annotating resources, monitoring design processes, enabling searches and pro-actively proposing tips and proper content. In order to illustrate the usage of K-CRIO, we apply K-CRIO on two different processes: the Waterfall Model and the Scrum methodology. These examples are both classical software-development processes. Moreover, for Scrum, the famous agile software-development process widely used in software enterprises, we have designed and developed an intelligent assistance tool. This tool mainly helps Scrum Masters to make decision by monitoring Scrum project teams' activities within their various projects and collecting knowledge about these activities.
23

Zhang, Qiang. "Process modeling of innovative design using systems engineering." Thesis, Strasbourg, 2014. http://www.theses.fr/2014STRAD007/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Nous développons des modèles de processus pour décrire et gérer efficacement la conception innovante, en suivant la méthodologie DRM. D'abord, nous présentons un modèle descriptif de la conception innovante. Ce modèle reflète les processus fondamentaux qui sont utiles pour comprendre les différentes dimensions et étapes impliqués dans la conception innovante. Il permette aussi de localise les possibilités d'innovation dans ce processus, et se focalise sur les facteurs internes et externes qui influencent le succès. Deuxièmement, nous effectuons une étude empirique pour étudier la façon dont le contrôle et la flexibilité peuvent être équilibrés pour gérer l'incertitude dans la conception innovante. Après avoir identifié les pratiques de projets qui traitent de ces incertitudes en termes de contrôle et de flexibilité, des études de cas sont analysés. Cet exemple montre que le contrôle et la flexibilité peuvent coexister. En se basant sûr les résultats managériaux issu de cette étude empirique, nous développons un modèle procédurale de processus et un modèle adaptatif à base d’activité. Le premier propose le cadre conceptuel pour équilibrer l'innovation et le contrôle par la structuration des processus au niveau du projet et par l'intégration des pratiques flexibles au niveau opérationnel. Le second modèle considère la conception innovante comme un système adaptatif complexe. Il propose ainsi une méthode de conception qui construit progressivement l'architecture du processus de la conception innovante. Enfin, les deux modèles sont vérifiées en analysant un certain nombre de processus et en faisant des simulations au sein de trois projets de conception innovante
We develop a series of process models to comprehensively describe and effectively manage innovative design in order to achieve adequate balance between innovation and control, following the design research methodology (DRM). Firstly, we introduce a descriptive model of innovative design. This model reflects the actual process and pattern of innovative design, locates innovation opportunities in the process and supports a systematic perspective whose focus is the external and internal factors affecting the success of innovative design. Secondly, we perform an empirical study to investigate how control and flexibility can be balanced to manage uncertainty in innovative design. After identifying project practices that cope with these uncertainties in terms of control and flexibility, a case-study sample based on five innovative design projects from an automotive company is analyzed and shows that control and flexibility can coexist. Based on the managerial insights of the empirical study, we develop the procedural process model and the activity-based adaptive model of innovative design. The former one provides the conceptual framework to balance innovation and control by the process structuration at the project-level and the integration of flexible practices at the operation-level. The latter model considers innovative design as a complex adaptive system, and thereby proposes the method of process design that dynamically constructs the process architecture of innovative design. Finally, the two models are verified by supporting a number of process analysis and simulation within a series of innovative design projects
24

Lin, Yanhui. "A holistic framework of degradation modeling for reliability analysis and maintenance optimization of nuclear safety systems." Thesis, Université Paris-Saclay (ComUE), 2016. http://www.theses.fr/2016SACLC002/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Composants de systèmes de sûreté nucléaire sont en général très fiable, ce qui conduit à une difficulté de modéliser leurs comportements de dégradation et d'échec en raison de la quantité limitée de données disponibles. Par ailleurs, la complexité de cette tâche de modélisation est augmentée par le fait que ces systèmes sont souvent l'objet de multiples processus concurrents de dégradation et que ceux-ci peut être dépendants dans certaines circonstances, et influencé par un certain nombre de facteurs externes (par exemple la température, le stress, les chocs mécaniques, etc.).Dans ce cadre de problème compliqué, ce travail de thèse vise à développer un cadre holistique de modèles et de méthodes de calcul pour l'analyse basée sur la fiabilité et la maintenance d'optimisation des systèmes de sûreté nucléaire en tenant compte des connaissances disponibles sur les systèmes, les comportements de dégradation et de défaillance, de leurs dépendances, les facteurs influençant externes et les incertitudes associées.Les contributions scientifiques originales dans la thèse sont:(1) Pour les composants simples, nous intégrons des chocs aléatoires dans les modèles de physique multi-états pour l'analyse de la fiabilité des composants qui envisagent dépendances générales entre la dégradation et de deux types de chocs aléatoires.(2) Pour les systèmes multi-composants (avec un nombre limité de composants):(a) un cadre de modélisation de processus de Markov déterministes par morceaux est développé pour traiter la dépendance de dégradation dans un système dont les processus de dégradation sont modélisées par des modèles basés sur la physique et des modèles multi-états; (b) l'incertitude épistémique à cause de la connaissance incomplète ou imprécise est considéré et une méthode volumes finis est prolongée pour évaluer la fiabilité (floue) du système; (c) les mesures d'importance de l'écart moyen absolu sont étendues pour les composants avec multiples processus concurrents dépendants de dégradation et soumis à l'entretien; (d) la politique optimale de maintenance compte tenu de l'incertitude épistémique et la dépendance de dégradation est dérivé en combinant schéma volumes finis, évolution différentielle et non-dominée de tri évolution différentielle; (e) le cadre de la modélisation de (a) est étendu en incluant les impacts des chocs aléatoires sur les processus dépendants de dégradation.(3) Pour les systèmes multi-composants (avec un grand nombre de composants), une méthode d'évaluation de la fiabilité est proposé considérant la dépendance dégradation en combinant des diagrammes de décision binaires et simulation de Monte Carlo pour réduire le coût de calcul
Components of nuclear safety systems are in general highly reliable, which leads to a difficulty in modeling their degradation and failure behaviors due to the limited amount of data available. Besides, the complexity of such modeling task is increased by the fact that these systems are often subject to multiple competing degradation processes and that these can be dependent under certain circumstances, and influenced by a number of external factors (e.g. temperature, stress, mechanical shocks, etc.). In this complicated problem setting, this PhD work aims to develop a holistic framework of models and computational methods for the reliability-based analysis and maintenance optimization of nuclear safety systems taking into account the available knowledge on the systems, degradation and failure behaviors, their dependencies, the external influencing factors and the associated uncertainties.The original scientific contributions of the work are: (1) For single components, we integrate random shocks into multi-state physics models for component reliability analysis, considering general dependencies between the degradation and two types of random shocks. (2) For multi-component systems (with a limited number of components):(a) a piecewise-deterministic Markov process modeling framework is developed to treat degradation dependency in a system whose degradation processes are modeled by physics-based models and multi-state models; (b) epistemic uncertainty due to incomplete or imprecise knowledge is considered and a finite-volume scheme is extended to assess the (fuzzy) system reliability; (c) the mean absolute deviation importance measures are extended for components with multiple dependent competing degradation processes and subject to maintenance; (d) the optimal maintenance policy considering epistemic uncertainty and degradation dependency is derived by combining finite-volume scheme, differential evolution and non-dominated sorting differential evolution; (e) the modeling framework of (a) is extended by including the impacts of random shocks on the dependent degradation processes.(3) For multi-component systems (with a large number of components), a reliability assessment method is proposed considering degradation dependency, by combining binary decision diagrams and Monte Carlo simulation to reduce computational costs
25

Arpón, Javier. "Statistical analysis and modeling of nuclear architecture in Arabidopsis Thaliana." Thesis, Université Paris-Saclay (ComUE), 2016. http://www.theses.fr/2016SACLS586/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les noyaux des cellules eucaryotes contiennent différents compartiments définis fonctionnellement ou structurellement et à multiples échelles qui présentent une distribution spatiale très ordonnée. Un défi majeur est alors d'identifier les règles selon lesquelles les compartiments nucléaires sont organisés dans l'espace et de décrire comment ces règles peuvent varier en fonction des conditions physiologiques ou expérimentales. Les statistiques spatiales ont rarement été utilisées à cette fin et se sont généralement limitées à l'évaluation de l'aléatoire complet. Ici, nous développons une approche de statistiques spatiales qui combine la cytologie, l'analyse d'image et la modélisation spatiale pour mieux comprendre les configurations spatiales à l'intérieur du noyau. Notre première contribution est un cadre méthodologique qui permet de tester des modèles d'organisation spatiale au niveau de la population. Plusieurs modèles spatiaux ont été proposés et mis en œuvre, en particulier l'aléatoire, l'aléatoire orbitale, la régularité maximale, l'aléatoire territoriale et l'aléatoire territoriale orbitale, pour analyser la distribution d'objets biologiques dans des domaines 3D finis et de formes arbitraires. De nouveaux descripteurs spatiaux, combinés aux descripteurs classiques, sont utilisés pour comparer les motifs observés à des configurations attendues sous les modèles testés. Une version non biaisée d'un test statistique publié précédemment est proposé pour évaluer la qualité de l'ajustement des modèles spatiaux sur les distributions observées. Après, nous étudions les propriétés de l'approche proposée à partir de données réelles et simulées. La robustesse de l'approche proposée aux erreurs de segmentation et la fiabilité des évaluations spatiales sont examinées. En outre, la base d'une méthode pour comparer les distributions spatiales entre différents groupes expérimentaux est proposée. Dans la dernière partie de ce travail, notre approche est appliquée à des images de noyaux cellulaires de la feuille chez A. thaliana, pour analyser la distribution spatiale de compartiments dynamiques et plastiques d'hétérochromatine, les chromocentres, qui ont un rôle important dans la structure du génome. Des noyaux isolés et des cryo-sections provenant de plantes de type sauvage ont été analysés. Nous montrons que les chromocentres présentent une distribution très régulière, ce qui confirme les résultats publiés précédemment. En utilisant nos nouveaux descripteurs, nous démontrons pour la première fois, objectivement et quantitativement, que les chromocentres présentent une localisation préférentielle périphérique. En employant un nouveau modèle spatial, nous rejetons l'hypothèse selon laquelle l'organisation régulière observée est uniquement expliquée par un positionnement périphérique. Nous démontrons en outre que les chromocentres affichent une régularité spatiale proche de la régularité maximale à l'échelle globale, mais pas à l'échelle locale. Enfin, nous utilisons des simulations pour tester un modèle selon lequel le positionnement des chromocentres est déterminé par les territoires chromosomiques et par des interactions avec l'enveloppe nucléaire. Nous avons ensuite vérifié s'il la distribution des chromocentres pouvait être modifiée par différentes mutations. Nous avons analysé les données de noyaux des mutants crwn et kaku, qui sont connus pour influencer la morphologie nucléaire. Les résultats suggèrent que ces mutations impactent en effet la morphologie nucléaire et les caractéristiques de l'hétérochromatine, mais ne modifient pas la régularité de la distribution des chromocentres même si la distance à la frontière du noyau est affectée. La généricité du cadre proposé pour analyser les distributions d'objets dans des domaines 3D finis et la possibilité d'ajouter de nouveaux modèles et descripteurs spatiaux devrait permettre d'analyser des organisations spatiales au sein de différents systèmes biologiques et à différentes échelles
Eukaryotic cell nuclei contain distinct functionally or structurally defined compartments at multiple scale that present a highly ordered spatial arrangement. Several studies in plants and animals have pointed out to links between nuclear organization and genome functions. A key challenge is to identify rules according to which nuclear compartments are organized in space and to describe how these rules may vary according to physiological or experimental conditions. Spatial statistics have been rarely used for this purpose, and were generally limited to the evaluation of complete spatial randomness. In this Thesis, we develop a spatial statistical approach, which combines cytology, image analysis and spatial modeling to better understand spatial configurations inside the nucleus. Our first contribution is a methodological framework that allows to test models of spatial organization at the population level. Several spatial models have been developed and implemented, including randomness, orbital randomness, maximum regularity, territorial randomness or orbital territorial randomness of biological objects within finite 3D domains of arbitrary shape. New spatial descriptors, in combination with classical ones, are used to compare observed patterns to expected configurations under the tested models. An unbiased version of a previously published statistical test is proposed to evaluate the goodness-of-fit of spatial models over populations of observed patterns. In the second part of this Thesis, we investigate the properties of the proposed approach using simulated and real data. The robustness of the proposed approach to segmentation errors and the reliability of the spatial evaluations are examined. Besides, the basis for a method to compare spatial distributions between different experimental groups is proposed. In the last part of this work, the proposed approach is applied on A. thaliana leaf cell nuclei images to analyze the spatial distribution of chromocenters, which are dynamic and plastic heterochromatic compartments that have an important structural role in the genome. A first application was to analyze isolated and cryo-section nuclei from wild type plants. We show that chromocenters present a highly regular distribution, confirming previously published results. Using new spatial statistical descriptors, we then demonstrate objectively and quantitatively, for the first time, that chromocenters exhibit a preferentially peripheral localization. Employing a new spatial model, we then reject the hypothesis that the regular organization is explained solely by the peripheral positioning. We further demonstrate that chromocenters organization displays a close-to-maximum spatial regularity at the global scale, but not at the local one. Lastly, we use simulations to examine a model according to which chromocenters positioning is constrained by chromosome territories and by interactions with the nuclear boundary. The second application was to elucidate whether chromocenters distribution could be altered under different mutations. We analyze nuclei data from crwn and kaku mutants, which are known to affect nuclear morphology. The results suggest that these mutations impact on nuclear morphology and on heterochromatin features but do not alter the regularity of chromocenters distribution even when the relative distance to the border is affected. The genericity of the proposed framework to analyze object distributions in finite 3D domains and its expandability to add more spatial models and spatial descriptors should be of interest to decipher spatial organizations within biological systems at various scales
26

Deschatre, Thomas. "Dependence modeling between continuous time stochastic processes : an application to electricity markets modeling and risk management." Thesis, Paris Sciences et Lettres (ComUE), 2017. http://www.theses.fr/2017PSLED034/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Cette thèse traite de problèmes de dépendance entre processus stochastiques en temps continu. Ces résultats sont appliqués à la modélisation et à la gestion des risques des marchés de l'électricité.Dans une première partie, de nouvelles copules sont établies pour modéliser la dépendance entre deux mouvements Browniens et contrôler la distribution de leur différence. On montre que la classe des copules admissibles pour les Browniens contient des copules asymétriques. Avec ces copules, la fonction de survie de la différence des deux Browniens est plus élevée dans sa partie positive qu'avec une dépendance gaussienne. Les résultats sont appliqués à la modélisation jointe des prix de l'électricité et d'autres commodités énergétiques. Dans une seconde partie, nous considérons un processus stochastique observé de manière discrète et défini par la somme d'une semi-martingale continue et d'un processus de Poisson composé avec retour à la moyenne. Une procédure d'estimation pour le paramètre de retour à la moyenne est proposée lorsque celui-ci est élevé dans un cadre de statistique haute fréquence en horizon fini. Ces résultats sont utilisés pour la modélisation des pics dans les prix de l'électricité.Dans une troisième partie, on considère un processus de Poisson doublement stochastique dont l'intensité stochastique est une fonction d'une semi-martingale continue. Pour estimer cette fonction, un estimateur à polynômes locaux est utilisé et une méthode de sélection de la fenêtre est proposée menant à une inégalité oracle. Un test est proposé pour déterminer si la fonction d'intensité appartient à une certaine famille paramétrique. Grâce à ces résultats, on modélise la dépendance entre l'intensité des pics de prix de l'électricité et de facteurs exogènes tels que la production éolienne
In this thesis, we study some dependence modeling problems between continuous time stochastic processes. These results are applied to the modeling and risk management of electricity markets. In a first part, we propose new copulae to model the dependence between two Brownian motions and to control the distribution of their difference. We show that the class of admissible copulae for the Brownian motions contains asymmetric copulae. These copulae allow for the survival function of the difference between two Brownian motions to have higher value in the right tail than in the Gaussian copula case. Results are applied to the joint modeling of electricity and other energy commodity prices. In a second part, we consider a stochastic process which is a sum of a continuous semimartingale and a mean reverting compound Poisson process and which is discretely observed. An estimation procedure is proposed for the mean reversion parameter of the Poisson process in a high frequency framework with finite time horizon, assuming this parameter is large. Results are applied to the modeling of the spikes in electricity prices time series. In a third part, we consider a doubly stochastic Poisson process with stochastic intensity function of a continuous semimartingale. A local polynomial estimator is considered in order to infer the intensity function and a method is given to select the optimal bandwidth. An oracle inequality is derived. Furthermore, a test is proposed in order to determine if the intensity function belongs to some parametrical family. Using these results, we model the dependence between the intensity of electricity spikes and exogenous factors such as the wind production
27

Ulmer, Jean-Stéphane. "Approche générique pour la modélisation et l'implémentation des processus." Thesis, Toulouse, INPT, 2011. http://www.theses.fr/2011INPT0002/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Une entreprise doit être capable de décrire et de demeurer réactive face à un événement endogène ou exogène. Une telle flexibilité peut s'obtenir par la gestion des processus d'entreprise (Business Process Management - BPM). Lors d'une démarche BPM, différentes transformations interviennent sur les modèles de processus développés par l'analyste métier et l'expert en technologies de l'information. Un non-alignement se crée entre ces modèles hétérogènes lors de leurs manipulations : il s'agit du "fossé métier-TI" tel que décrit dans la littérature. L'objectif de notre travail est de proposer un cadre méthodologique permettant un meilleur pilotage des processus métier, afin de tendre vers un alignement systématique de leur modélisation à leur implémentation au sein du système cible. A l'aide de concepts issus de l'ingénierie d'Entreprise et des Systèmes d'Informations dirigée par les modèles et des TI, nous définissons une démarche générique assurant une cohérence intermodèle. Son rôle est de conserver et de fournir toutes les informations liées à la structure et à la sémantique des modèles. En permettant la restitution intégrale d'un modèle transformé au sens de l'ingénierie inverse, notre plateforme permet une synchronisation entre modèle d'analyse et modèle d'implémentation. Le manuscrit présente également l'adéquation possible entre l'ingénierie des procédés et le BPM à travers un point de vue multi-échelle
A company must be able to describe and to remain responsive against endogenous or exogenous events. Such flexibility can be obtained with the Business Process Management (BPM). Through a BPM approach, different transformations operate on process models, developed by the business analyst and IT expert. A non-alignment is created between these heterogeneous models during their manipulation: this is the "business-IT gap" as described in the literature. The objective of our work is to propose a methodological framework for a better management of business processes in order to reach a systematic alignment from their modelling to their implementation within the target system. Using concepts from Model-driven Enterprise and Information System engineering, we define a generic approach ensuring an intermodal consistency. Its role is to maintain and provide all information related to the model structure and semantics. By allowing a full restitution of a transformed model, in the sense of reverse engineering, our platform enables synchronization between analysis model and implementation model. The manuscript also presents the possible match between process engineering and BPM through a multi- erspective scale
28

Nivot, Christophe. "Analyse et étude des processus markoviens décisionnels." Thesis, Bordeaux, 2016. http://www.theses.fr/2016BORD0057/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Nous explorons l'étendue du champ applicatif des processus markoviens décisionnels au travers de deux problématiques. La première, de nature industrielle, propose l'étude numérique de l'optimisation d'un processus d'intégration lanceur en collaboration avec Airbus DS. Il s'agit d'un cas particulier des problèmes de gestion d'inventaire dans lequel un calendrier de tirs joue un rôle central. La modélisation adoptée entraîne l'impossibilité d'appliquer les procédures d'optimisation classiques liées au formalisme des processus markoviens décisionnels. Nous étudions alors des algorithmes basés sur des simulations qui rendent des stratégies optimales non triviales et qui sont utilisables dans la pratique. La deuxième problématique, de nature théorique, se concentre sur les questions d'arrêt optimal partiellement observables. Nous proposons une méthode d'approximation par quantification de ces problèmes lorsque les espaces d'états sont quelconques. Nous étudions la convergence de la valeur optimale approchée vers la valeur optimale réelle ainsi que sa vitesse. Nous appliquons notre méthode à un exemple numérique
We investigate the potential of the Markov decision processes theory through two applications. The first part of this work is dedicated to the numerical study of an industriallauncher integration process in co-operation with Airbus DS. It is a particular case of inventory control problems where a launch calendar has a key role. The model we propose implies that standard optimization techniques cannot be used. We then investigate two simulation-based algorithms. They return non trivial optimal policies which can be applied in actual practice. The second part of this work deals with the study of partially observable optimal stopping problems. We propose an approximation method using optimal quantization for problems with general state space. We study the convergence of the approximated optimal value towards the real optimal value. The convergence rate is also under study. We apply our method to a numerical example
29

Deng, Yuxin. "Axiomatisations et types pour des processus probabilistes et mobiles." Phd thesis, École Nationale Supérieure des Mines de Paris, 2005. http://tel.archives-ouvertes.fr/tel-00155225.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Cette th`ese se concentre sur des bases th´eoriques utiles pour l'analyse d'algorithmes et de protocoles
pour des syst`emes r´epartis modernes. Deux caract´eristiques importantes des mod`eles pour
ces syst`emes sont les probabilit´es et la mobilit´e typ´ee : des probabilit´es peuvent ˆetre utilis´ees pour
quantifier des comportements incertains ou impr´evisibles, et des types peuvent ˆetre utilis´es pour
garantir des comportements sˆurs dans des syst`emes mobiles. Dans cette th`ese nous d´eveloppons
des techniques alg´ebriques et des techniques bas´ees sur les types pour l'´etude comportementale des
processus probabilistes et mobiles.

Dans la premi`ere partie de la th`ese nous ´etudions la th´eorie alg´ebrique d'un calcul de processus
qui combine les comportements non-d´eterministe et probabiliste dans le mod`ele des automates probabilistes
propos´es par Segala et Lynch. Nous consid´erons diverses ´equivalences comportementales
fortes et faibles, et nous fournissons des axiomatisations compl`etes pour des processus `a ´etats finis,
limit´ees `a la r´ecursion gard´ee dans le cas des ´equivalences faibles.

Dans la deuxi`eme partie de la th`ese nous ´etudions la th´eorie alg´ebrique du -calcul en pr´esence
des types de capacit´es, qui sont tr`es utiles dans les calculs de processus mobiles. Les types de
capacit´es distinguent la capacit´e de lire sur un canal, la capacit´e d'´ecrire sur un canal, et la capacit´e
de lire et d'´ecrire `a la fois. Ils introduisent ´egalement une relation de sous-typage naturelle et
puissante. Nous consid´erons deux variantes de la bisimilarit´e typ´ee, dans leurs versions retard´ees
et anticip´ees. Pour les deux variantes, nous donnons des axiomatisations compl`etes pour les termes
ferm´es. Pour une des deux variantes, nous fournissons une axiomatisation compl`ete pour tous les
termes finis.

Dans la derni`ere partie de la th`ese nous d´eveloppons des techniques bas´ees sur les types pour
v´erifier la propri´et´e de terminaison de certains processus mobiles. Nous fournissons quatre syst`emes
de types pour garantir cette propri´et´e. Les syst`emes de types sont obtenus par des am´eliorations
successives des types du -calcul simplement typ´e. Les preuves de terminaison utilisent des techniques
employ´ees dans les syst`emes de r´e´ecriture. Ces syst`emes de types peuvent ˆetre utilis´es pour
raisonner sur le comportement de terminaison de quelques exemples non triviaux : les codages des
fonctions r´ecursives primitives, le protocole pour coder le choix s´epar´e en terme de composition
parall`ele, une table de symboles implement´ee comme une chaˆıne dynamique de cellules.

Ces r´esultats ´etablissent des bases pour une future ´etude de mod`eles plus avanc´es qui peuvent
combiner des probabilit´es avec des types. Ils soulignent ´egalement la robustesse des techniques
alg´ebriques et de celles bas´ees sur les types pour le raisonnement comportemental.
30

COHEN, ROBERT. "Modelisation, filtrage et controle de processus stochastiques." Paris, ENST, 1987. http://www.theses.fr/1987ENST0015.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Presentation d'une formule de filtrage pour un modele de filtrage ou une observation supplementaire a l'observation continue est disponible a des temps d'arrets mesurables par rapport a la filtration de l'observation consideree dans son ensemble. On donne une solution au probleme de controle stochastique dans les systemes lineaires avec un cout terminal. Une etude sur l'existence et l'unicite de la solution forte a l'equation du filtre est prouvee
31

Pan-Yu, Yiyan. "Spectres de processus de Markov." Phd thesis, Université Joseph Fourier (Grenoble), 1997. http://tel.archives-ouvertes.fr/tel-00004959.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
32

Pirayesh, Neghab Amir. "Évaluation basée sur l’interopérabilité de la performance des collaborationsdans le processus de conception." Thesis, Paris, ENSAM, 2014. http://www.theses.fr/2014ENAM0033/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Un processus de conception que ce soit d'un produit ou d'un service est composé d'un grand nombre d'activités reliées par des échanges nombreux de données et d'informations. La qualité de ces échanges, appelés collaborations, nécessite d'être capable d'envoyer et de recevoir des informations et données utiles, compréhensibles et univoques pour les différents concepteurs impliqués. La problématique de ces travaux de thèse se focalise donc sur la définition et l'évaluation de la performance des collaborations, et par extension, du processus de conception dans sa totalité. Cette évaluation de la performance exige la définition de plusieurs éléments clefs tels que : les objets à évaluer, les indicateurs de performance et les variables d'actions. Afin de définir l'objet d'évaluation, ces travaux s'appuient sur une étude de la littérature afin de proposer un méta-modèle de la conception collaborative. La mesure de la performance de ces collaborations est quant à elle basée sur le concept d'interopérabilité. Cette mesure estime ainsi l'interopérabilité technique et sémantique des différentes collaborations élémentaires. Ces travaux se concluent par la proposition d'un cadre méthodologique outillé d'évaluation de la performance des collaborations. Par une approche en deux étapes (modélisation puis évaluation), ce cadre facilite l'identification des collaborations peu performantes et de leurs causes. Ce cadre est illustré et partiellement validé à l'aide d'un exemple académique et d'une étude de cas dans le cadre de la conception
A design process, whether for a product or for a service, is composed of a large number of activities connected by many data and information exchanges. The quality of these exchanges, called collaborations, requires being able to send and receive data and information which are useful, understandable and unambiguous to the different designers involved. The research question is thus focused on the definition and evaluation of the performance of collaborations, and by extension, of the design process in its entirety. This performance evaluation requires the definition of several key elements such as object(s) to be evaluated, the performance indicator(s) and action variable(s).In order to define the object of evaluation, this research relies on a study of the literature resulting in a meta-model of collaborative process. The measurement of the performance of these collaborations is for its part based on the concept of interoperability. The measurement of the performance of the collaborations is for its part based on the concept of interoperability. Furthermore, this measure estimates the technical and conceptual interoperability of the different elementary collaborations. This work is concluded by proposing a tooled methodological framework for collaborations' performance evaluation. Through a two-step approach (modeling and evaluation), this framework facilitates the identification of inefficient collaborations and their causes. This framework is illustrated and partially validated using an academic example and a case study in design domain
33

Paredes, Moreno Daniel. "Modélisation stochastique de processus d'agrégation en chimie." Thesis, Toulouse 3, 2017. http://www.theses.fr/2017TOU30368/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Nous concentrons notre intérêt sur l'Équation du Bilan de la Population (PBE). Cette équation décrit l'évolution, au fil du temps, des systèmes de particules en fonction de sa fonction de densité en nombre (NDF) où des processus d'agrégation et de rupture sont impliqués. Dans la première partie, nous avons étudié la formation de groupes de particules et l'importance relative des variables dans la formation des ces groupes en utilisant les données dans (Vlieghe 2014) et des techniques exploratoires comme l'analyse en composantes principales, le partitionnement de données et l'analyse discriminante. Nous avons utilisé ce schéma d'analyse pour la population initiale de particules ainsi que pour les populations résultantes sous différentes conditions hydrodynamiques. La deuxième partie nous avons étudié l'utilisation de la PBE en fonction des moments standard de la NDF, et les méthodes en quadrature des moments (QMOM) et l'Extrapolation Minimale Généralisée (GME), afin de récupérer l'évolution, d'un ensemble fini de moments standard de la NDF. La méthode QMOM utilise une application de l'algorithme Produit- Différence et GME récupère une mesure discrète non-négative, étant donnée un ensemble fini de ses moments standard. Dans la troisième partie, nous avons proposé un schéma de discrétisation afin de trouver une approximation numérique de la solution de la PBE. Nous avons utilisé trois cas où la solution analytique est connue (Silva et al. 2011) afin de comparer la solution théorique à l'approximation trouvée avec le schéma de discrétisation. La dernière partie concerne l'estimation des paramètres impliqués dans la modélisation des processus d'agrégation et de rupture impliqués dans la PBE. Nous avons proposé une méthode pour estimer ces paramètres en utilisant l'approximation numérique trouvée, ainsi que le Filtre Étendu de Kalman. La méthode estime interactivement les paramètres à chaque instant du temps, en utilisant un estimateur de Moindres Carrés non-linéaire
We center our interest in the Population Balance Equation (PBE). This equation describes the time evolution of systems of colloidal particles in terms of its number density function (NDF) where processes of aggregation and breakage are involved. In the first part, we investigated the formation of groups of particles using the available variables and the relative importance of these variables in the formation of the groups. We use data in (Vlieghe 2014) and exploratory techniques like principal component analysis, cluster analysis and discriminant analysis. We used this scheme of analysis for the initial population of particles as well as in the resulting populations under different hydrodynamics conditions. In the second part we studied the use of the PBE in terms of the moments of the NDF, and the Quadrature Method of Moments (QMOM) and the Generalized Minimal Extrapolation (GME), in order to recover the time evolution of a finite set of standard moments of the NDF. The QMOM methods uses an application of the Product-Difference algorithm and GME recovers a discrete non-negative measure given a finite set of its standard moments. In the third part, we proposed an discretization scheme in order to find a numerical approximation to the solution of the PBE. We used three cases where the analytical solution is known (Silva et al. 2011) in order to compare the theoretical solution to the approximation found with the discretization scheme. In the last part, we proposed a method for estimate the parameters involved in the modelization of aggregation and breakage processes in PBE. The method uses the numerical approximation found, as well as the Extended Kalman Filter. The method estimates iteratively the parameters at each time, using an non- linear Least Square Estimator
34

Kessouri, Fayçal. "Cycles biogéochimiques de la mer Méditerranée : processus et bilans." Thesis, Toulouse 3, 2015. http://www.theses.fr/2015TOU30367/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
La Méditerranée est caractérisée par une grande variété de régimes trophiques qui s'explique par les apports fluviaux, les ratios azote/phosphore particulièrement élevés dans le bassin oriental, et par les processus hydrodynamiques en particulier le mélange vertical dans les régions situées au nord. Cette thèse qui s'inscrit dans le cadre du projet MerMEX, composante du chantier MISTRALS, a pour objectif l'étude des cycles biogéochimiques en Méditerranée. Elle s'appuie en particulier sur les observations acquises dans le cadre du projet DeWEx et sur la modélisation couplée physique biogéochimie 3D. À l'échelle du bassin et à l'échelle régionale du sous-bassin occidental. La première étude à l'échelle du bassin sur une période de 10 ans a permis d'effectuer une classification de régimes biogéochimiques, en fonction de leurs caractéristiques physiques et biogéochimiques. Les zones oligotrophes présentes au sud du bassin oriental et occidental sont caractérisées par une faible efflorescence et par de grandes profondeurs de nutriclines. Tandis qu'au nord du bassin, au large de Rhodes, en mer Adriatique et dans le bassin Liguro-provençal, le régime oligotrophe estival est suivi en hiver par une dynamique verticale intense, la convection profonde. Cette dernière est considérée comme le moteur de la circulation thermohaline. Elle entraine un enrichissement des eaux de surface en sels nutritifs qui permet une efflorescence rapide et intense au printemps. L'océan Atlantique représente une source de matière organique pour la Méditerranée. Cette mer représente en revanche une source de sels nutritifs pour l'Atlantique. Ensuite, un modèle à très haute résolution a été imbriqué dans le modèle de bassin pour quantifier les processus physiques et biologiques qui déterminent la variabilité temporelle de la disponibilité et de la stœchiométrie des sels nutritifs en Méditerranée nord-occidentale. La convection profonde hivernale entraîne une homogénéisation des propriétés biogéochimiques sur la colonne d'eau, et une stœchiométrie vers des valeurs estivales. Cette région bascule d'un régime d'eutrophie lors de la convection profonde vers un régime oligotrophe après le bloom de printemps. Lors du premier régime la production primaire est dominée par une production nouvelle en surface, alors que lors du deuxième régime la production phytoplanctonique de subsurface est essentiellement régénérée. Les masses d'eau adjacentes à la zone de convection et celles situées au sud sont caractérisées par une dominance de production régénérée toute l'année. Une partie de la matière organique particulaire est exportée en dessous de la couche épipélagique. Cet export de matière organique est variable et est fortement lié à la dynamique verticale des masses d'eau
The Mediterranean Sea is characterized by various trophic regimes due to river inputs, as well as heterogeneous nitrogen to phosphorus ratios and hydrodynamic processes, in particular vertical mixing. The objective of this thesis that was performed in the framework of the MISTRALS program is the study of the biogeochemical cycles of these various regimes that composed the Mediterranean. It is mainly based on the in situ observations collected during DeWEx project and on 3D physical/biogeochemical modeling at the scale of the entire basin and at the regional of the western sub-basin. The first study is a ten-year basin scale study which allows an ecological classification, giving bioregions in function of their physical and biogeochemical properties. Southern oligotrophic areas in both eastern and western sub-basins are characterized by low efflorescence and deep nutriclines. While in the north, near Rhodes Island, in the southern Adriatic Sea and in the Liguro-Provencal sub-basin, the summer oligotrophic regime is altered annually by intense vertical dynamics, the deep convection. This process is considered as a driving force of the thermohaline circulation and entrains an enrichment of nutrients in surface layer which allows rapid and intense blooms in spring. The Mediterranean receives organic matter from the Atlantic Ocean, while, it is a source of inorganic matter for the Atlantic. In a second part of this thesis, a high resolution model on the western sub-basin was embedded in the basin model to quantify the physical and biological processes that determine the temporal variability of the nutrient stocks and their stoichiometry. The north-western Mediterranean turns from an eutrophic regime during deep convection to an oligotrophic regime after the spring bloom. During the eutrophic regime new production dominates the primary production at the surface while during the oligotrophic regime primary production is essentially associated to subsurface regenerated one. Adjacent water masses of the convection zone and west-southern regions are characterized by a dominance of regenerated production all over the year
35

Bansept, Florence. "Biophysical modeling of bacterial population dynamics and the immune response in the gut." Thesis, Sorbonne université, 2018. http://www.theses.fr/2018SORUS397.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
La première partie de cette thèse porte sur les dynamiques de colonisation d'une population bactérienne au début d'une infection intestinale. Le but est de déduire des paramètres biologiquement pertinents de données indirectes. Un modèle simple est étudié, et l'on discute de l'observable optimale pour caractériser la variabilité d'une distribution d'étiquettes génétiques. Des arguments biologiques et des incohérences entre des observables expérimentales avec le premier modèle motivent l'étude d'un second, où deux sous-populations se répliquent à des taux différents, mais on ne peut pas conclure clairement sur le jeu de données utilisé. La seconde partie porte sur les mécanismes de la réponse immunitaire. Le principal effecteur du système immunitaire adaptatif dans l'intestin, l'IgA (un anticorps), enchaîne les bactéries-filles en agrégats clonaux lors de la réplication. Nous avons contribué à prouver ce phénomène par un modèle qui prédit la réduction de la diversité bactérienne qui en découle. Au sein de l'hôte, l'interaction entre la croissance et la fragmentation des agrégats a pour conséquence le piégeage préférentiel des bactéries à croissance rapide, ce qui pourrait permettre au système immunitaire de réguler la composition du microbiote. A l'échelle de la population-hôte, et dans le contexte de l'évolution d'une résistance aux antibiotiques, si les bactéries sont transmises sous forme d'amas clonaux, alors la probabilité de transmettre une bactérie résistante est réduite dans une population immunisée. Ainsi, des outils de physique statistique nous permettent d'identifier des mécanismes génériques en biologie
The first part of this thesis focuses on the colonization dynamics of a bacterial population in early infection of the gut. The aim is to infer biologically relevant parameters from indirect data. We discuss the optimal observable to characterize the variability in genetic tags distributions. In a first one-population model, biological arguments and inconsistencies between several experimental observables lead to the study of a second model with two-subpopulations replicating at different rates. As expected, this model allows for broader possibilities in observables combination, even though no clear conclusion can be drawn as to a data set on Salmonella in mice. The second part concerns the mechanisms that make the immune response effective. The main effector of the immune system in the gut, IgA (an antibody), enchains daughter bacteria in clonal clusters upon replication. Our model predicting the ensuing reduction of diversity in the bacterial population contributes to evidence this phenomenon, called “enchained growth”. Inside the host, the interplay of cluster growth and fragmentation results in preferentially trapping faster-growing and potentially noxious bacteria away from the epithelium, which could be a way for the immune system to regulate the microbiota composition. At the scale of the hosts population, in the context of evolution of antibiotic resistance, if bacteria are transmitted via clonal clusters, the probability to transmit a resistant bacteria is reduced in immune populations. Thus we use statistical physics tools to identify some generic mechanisms in biology
36

Sene, Alsane. "Modélisation et structuration des connaissances dans les processus de télémédecine dédiés aéronautique." Thesis, Toulouse 3, 2018. http://www.theses.fr/2018TOU30251/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Tout professionnel de la santé est sujet devant un patient à une incertitude inhérente à la pratique médicale. Dans le cas d'incident médical lors d'un trajet aérien, cette incertitude comporte trois sources additionnelles : (1) variabilité des conditions aéronautiques, (2) variabilité individuelle des conditions du patient, (3) variabilité individuelle des compétences de l'intervenant. Aujourd'hui les incidents médicaux dans l'avion sont estimés à 350 par jour dans le monde et lorsqu'ils surviennent, ils sont pris en charge dans 95% des cas par des professionnels de la santé passagers qui se portent volontaires. C'est souvent pour eux une première expérience. La principale raison de la réticence des professionnels de la santé à répondre à l'appel du commandant est la nécessité d'improviser; ayant à établir un diagnostic et évaluer la gravité de l'état du patient dans des conditions difficiles. A part l'assistance à distance par télémédecine l'intervenant, souvent seul face à ses doutes et son incertitude, ne dispose d'aucune autre aide à bord. Par ailleurs l'aviation civile dispose de systèmes de retour d'expérience (RETEX) pour gérer la complexité de tels processus. Des politiques de recueil et d'analyse des événements sont mises en place à l'échelle internationale, par exemple ECCAIRS (European Co-ordination Centre for Accident and Incident Reporting Systems) et ASRS (Aviation Safety Reporting System).Dans ce travail de thèse, nous proposons tout d'abord une formalisation sémantique basée sur les ontologies pour préciser conceptuellement le vocabulaire des incidents médicaux se produisant durant les vols commerciaux. Ensuite, nous mettons en œuvre un processus d'extraction des connaissances à partir des données (bases existantes) pour identifier les structures caractéristiques (patterns) des différents groupes d'incidents majeurs. Enfin, nous proposons une architecture de Système d'Aide à la Décision Médicale (SADM) qui intègre la gestion des incertitudes présentes tant sur les données récoltées que les niveaux de compétences des professionnels médicaux intervenants
There is an inherent risk in the practice of medicine that can affect the conditions of medical activities (diagnostic or therapeutic purposes). The management of uncertainty is also an integral part of decision-making processes in the medical field. In the case of a medical incident during an air travel, this uncertainty includes three additional sources: (1) variability of the aeronautical conditions, (2) individual variability of the patient's conditions, (3) individual variability of the intervener's skills. Presently, medical incidents in the plane are estimated worldwide at 350 per day and when they occur, they are handled in 95 \% of cases by health professionals who are passengers. It is often for them a first experience. The main reason for the reluctance of health professionals to respond to the aircraft captain's call is the need to improvise; having to make a diagnosis and assess the severity of the patient's condition under difficult conditions. Apart from telemedicine with remote assistance, the intervener, often alone in the face of his doubts and uncertainty, has no other decision aid tool on board. Civil aviation also has feedback systems to manage the complexity of such processes. Event collection and analysis policies are put in place internationally, for example ECCAIRS (European Co-ordination Center for Accident and Incident Reporting Systems) and ASRS (Aviation Safety Reporting System). In this work, we first propose a semantic formalization based on ontologies to clarify conceptually the vocabulary of medical incidents occurring during commercial flights. Then, we implement a knowledge extraction process from the data available on existing databases to identify the patterns of the different groups of incidents. Finally, we propose a Clinical Decision Support System (CDSS) architecture that integrates the management of the uncertainties present on both the collected data and the skill levels of the medical professionals involved
37

Guerrier, Claire. "Multi-scale modeling and asymptotic analysis for neuronal synapses and networks." Thesis, Paris 6, 2015. http://www.theses.fr/2015PA066518/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Dans cette thèse, nous étudions plusieurs structures neuronales à différentes échelles allant des synapses aux réseaux neuronaux. Notre objectif est de développer et analyser des modèles mathématiques, afin de déterminer comment les propriétés des synapses au niveau moléculaire façonnent leur activité, et se propagent au niveau du réseau. Ce changement d’échelle peut être formulé et analysé à l’aide de plusieurs outils tels que les équations aux dérivées partielles, les processus stochastiques ou les simulations numériques. Dans la première partie, nous calculons le temps moyen pour qu’une particule brownienne arrive à une petite ouverture définie comme le cylindre faisant la jonction entre deux sphères tangentes. La méthode repose sur une transformation conforme de Möbius appliquée à l’équation de Laplace. Nous estimons également, lorsque la particule se trouve dans un voisinage de l’ouverture, la probabilité d’atteindre l’ouverture avant de quitter le voisinage. De nouveau, cette probabilité est exprimée à l’aide d’une équation de Laplace, avec des conditions aux limites mixtes. En utilisant ces résultats, nous développons un modèle et des simulations stochastiques pour étudier la libération vésiculaire au niveau des synapses, en tenant compte de leur géométrie particulière. Nous étudions ensuite le rôle de plusieurs paramètres tels que le positionnement des canaux calciques, le nombre d’ions entrant après un potentiel d’action, ou encore l’organisation de la zone active. Dans la deuxième partie, nous développons un modèle pour le terminal pré- synaptique, formulé dans un premier temps comme un problème de réaction-diffusion dans un microdomaine confiné, où des particules browniennes doivent se lier à de petits sites cibles. Nous développons ensuite deux modèle simplifiés. Le premier modèle couple un système d’équations d’action de masse à un ensemble d’équations de Markov, et permet d’obtenir des résultats analytiques. Dans un deuxième temps, nous developpons un modèle stochastique basé sur des équations de taux poissonniens, qui dérive de la théorie du premier temps de passage et de l’analyse précédente. Ce modèle permet de réaliser des simulations stochastiques rapides, qui donnent les mêmes résultats que les simulations browniennes naïves et interminables. Dans la dernière partie, nous présentons un modèle d’oscillations dans un réseau de neurones, dans le contexte du rythme respiratoire. Nous developpons un modèle basé sur les lois d’action de masse représentant la dynamique synaptique d’un neurone, et montrons comment l’activité synaptique au niveau des neurones conduit à l’émergence d’oscillations au niveau du réseau. Nous comparons notre modèle à plusieurs études expérimentales, et confirmons que le rythme respiratoire chez la souris au repos est contrôlé par l’excitation récurrente des neurones découlant de leur activité spontanée au sein du réseau
In the present PhD thesis, we study neuronal structures at different scales, from synapses to neural networks. Our goal is to develop mathematical models and their analysis, in order to determine how the properties of synapses at the molecular level shape their activity and propagate to the network level. This change of scale can be formulated and analyzed using several tools such as partial differential equations, stochastic processes and numerical simulations. In the first part, we compute the mean time for a Brownian particle to arrive at a narrow opening defined as the small cylinder joining two tangent spheres. The method relies on Möbius conformal transformation applied to the Laplace equation. We also estimate, when the particle starts inside a boundary layer near the hole, the splitting probability to reach the hole before leaving the boundary layer, which is also expressed using a mixed boundary-value Laplace equation. Using these results, we develop model equations and their corresponding stochastic simulations to study vesicular release at neuronal synapses, taking into account their specific geometry. We then investigate the role of several parameters such as channel positioning, the number of entering ions, or the organization of the active zone. In the second part, we build a model for the pre-synaptic terminal, formulated in an initial stage as a reaction-diffusion problem in a confined microdomain, where Brownian particles have to bind to small target sites. We coarse-grain this model into two reduced ones. The first model couples a system of mass action equations to a set of Markov equations, which allows to obtain analytical results. We develop in a second phase a stochastic model based on Poissonian rate equations, which is derived from the mean first passage time theory and the previous analysis. This model allows fast stochastic simulations, that give the same results than the corresponding naïve and endless Brownian simulations. In the final part, we present a neural network model of bursting oscillations in the context of the respiratory rhythm. We build a mass action model for the synaptic dynamic of a single neuron and show how the synaptic activity between individual neurons leads to the emergence of oscillations at the network level. We benchmark the model against several experimental studies, and confirm that respiratory rhythm in resting mice is controlled by recurrent excitation arising from the spontaneous activity of the neurons within the network
38

Bézenac, Emmanuel de. "Modeling physical processes with deep learning : a dynamical systems approach." Electronic Thesis or Diss., Sorbonne université, 2021. http://www.theses.fr/2021SORUS203.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
L'apprentissage profond s'impose comme un outil prédominant pour l'IA, avec de nombreuses applications fructueuses pour des taches où les données sont abondantes et l'accès aux connaissances préalables est difficile. Cependant ce n'est pas encore le cas dans le domaine des sciences naturelles, et encore moins pour l'étude des systèmes dynamiques. En effet, ceux-ci font l'objet d'études depuis des siècles, une quantité considérable de connaissances a ainsi été acquise, et des algorithmes et des méthodes ingénieux ont été développés. Cette thèse a donc deux objectifs principaux. Le premier concerne l'étude du rôle que l'apprentissage profond doit jouer dans ce vaste écosystème de connaissances, de théories et d'outils. Nous tenterons de répondre à cette question générale à travers un problème concret: la modélisation de processus physiques complexes à l'aide de l'apprentissage profond. Le deuxième objectif est en quelque sorte son contraire; il concerne l'analyse les algorithmes d'apprentissage profond à travers le prisme des systèmes dynamiques et des processus physiques, dans le but d'acquérir une meilleure compréhension et de développer de nouveaux algorithmes pour ce domaine
Deep Learning has emerged as a predominant tool for AI, and has already abundant applications in fields where data is abundant and access to prior knowledge is difficult. This is not necessarily the case for natural sciences, and in particular, for physical processes. Indeed, these have been the object of study since centuries, a vast amount of knowledge has been acquired, and elaborate algorithms and methods have been developped. Thus, this thesis has two main objectives. The first considers the study of the role that deep learning has to play in this vast ecosystem of knowledge, theory and tools. We will attempt to answer this general question through a concrete problem: the one of modelling complex physical processes, leveraging deep learning methods in order to make up for lacking prior knowledge. The second objective is somewhat its converse: it focuses on how perspectives, insights and tools from the field of study of physical processes and dynamical systems can be applied in the context of deep learning, in order to gain a better understanding and develop novel algorithms
39

Waycaster, Garrett. "Stratégies d'optimisation par modélisation explicite des différents acteurs influençant le processus de conception." Thesis, Toulouse 3, 2015. http://www.theses.fr/2015TOU30122/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Le succès ou l'échec commercial des systèmes complexes (e.g. avions de transport commercial) ne dépend pas que de la qualité technique intrinsèque du produit mais il est aussi notablement affectée par les différentes interactions avec les autres acteurs du milieu tels la concurrence, les utilisateurs finaux et les organismes de réglementation. Des produits qui manquent de performances, ont un coût trop élevé, ou sont considérées comme dangereux ou nuisibles seront inévitablement surmontés par des produits concurrents qui répondent mieux aux besoins des clients et de la société dans son ensemble. Dans cette thèse, nous cherchons à utiliser le cadre de la théorie des jeux afin d'intégrer directement l'effet de ces interactions dans un problème d'optimisation de conception qui vise à maximiser la rentabilité du concepteur du système. Cette approche permet aux concepteurs de prendre en considération les effets de l'incertitude venant d'une part des sources traditionnelles de variabilités (propriétés matériaux, tolérances géométriques, etc) ainsi que d'autres incertitudes de nature non technique reflétant par exemple l'incertitude du futur marché ou les interactions avec les autres parties prenantes (nouveaux produits concurrents, nouvelles règlementations, etc). Dans ce cadre nous développons également des techniques de modélisation utilisant des modèles causaux afin de comprendre la nature d'interactions complexes à partir des données observées. Enfin, nous examinons les effets complexes entre sureté de fonctionnement et conception en examinant l'histoire de la réglementation fédérale sur l'industrie du transport. Ces travaux ont mené à plusieurs résultats clés. D'abord, en considérant l'effet des interactions entre les différents acteurs, les concepteurs peuvent être amenés à faire des choix techniques très différents de ceux qu'ils auraient fait sans considérer ces interactions. Cela est illustré sur plusieurs études de cas avec des applications à la conception d'avions de transport commercial. Deuxièmement, nous avons développé une nouvelle méthode de construction de modèles causaux qui permet aux concepteurs d'évaluer le niveau de confiance dans leur compréhension des interactions entre les différents acteurs. Enfin, nous avons montré par une étude liens entre la réglementation et les améliorations de la sureté que la demande pour l'amélioration de la sureté ne répond pas toujours à une rationalité économique. En revanche la demande pour plus de sureté est fortement influencée par des facteurs tels que le niveau de responsabilité personnelle et la nature et ampleur des accidents potentiels
The commercial success or failure of engineered systems has always been significantly affected by their interactions with competing designs, end users, and regulatory bodies. Designs which deliver too little performance, have too high a cost, or are deemed unsafe or harmful will inevitably be overcome by competing designs which better meet the needs of customers and society as a whole. Recent efforts to address these issues have led to techniques such as design for customers or design for market systems. In this dissertation, we seek to utilize a game theory framework in order to directly incorporate the effect of these interactions into a design optimization problem which seeks to maximize designer profitability. This approach allows designers to consider the effects of uncertainty both from traditional design variabilities as well as uncertain future market conditions and the effect of customers and competitors acting as dynamic decision makers. Additionally, we develop techniques for modeling and understanding the nature of these complex interactions from observed data by utilizing causal models. Finally, we examine the complex effects of safety on design by examining the history of federal regulation on the transportation industry. These efforts lead to several key findings; first, by considering the effect of interactions designers may choose vastly different design concepts than would otherwise be considered. This is demonstrated through several case studies with applications to the design of commercial transport aircraft. Secondly, we develop a novel method for selecting causal models which allows designers to gauge the level of confidence in their understanding of stakeholder interactions, including uncertainty in the impact of potential design changes. Finally, we demonstrate through our review of regulations and other safety improvements that the demand for safety improvement is not simply related to ratio of dollars spent to lives saved; instead the level of personal responsibility and the nature and scale of potential safety concerns are found to have causal influence on the demand for increased safety in the form of new regulations
40

Goyet, Sophie. "Modélisation du processus d'application des connaissances entre Recherche et Santé publique." Thesis, Montpellier 2, 2014. http://www.theses.fr/2014MON20077/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
La recherche en santé génère des publications scientifiques de plus en plus nombreuses. Or cette production scientifique n'est pas systématiquement intégrée dans la santé publique. Chercheurs et décideurs politiques ont des fonctionnements et des contraintes qui ne facilitent pas naturellement les échanges et l'application des connaissances (AC) issues de la recherche dans les politiques de santé. Cette thèse porte sur cet écart entre recherche et politiques de santé et analyse les facteurs déterminants du succès ou de l'échec du transfert des connaissances entre recherche et politiques de santé au Cambodge. Le premier chapitre définit le processus d'application des connaissances (AC) et passe en revue les rares interventions d'AC rapportées dans la littérature. Cette revue montre que l'AC n'est pas un concept nouveau, même s'il demeure peu maîtrisé et peu développé. Dans ce chapitre, nous passons également en revue les outils utilisés pour modéliser des processus et des recherches en santé. Nous concluons que l'UML (langage unifié de modélisation) apparait comme le meilleur outil de modélisation disponible pour analyser le processus d'AC. Le deuxième chapitre décrit une intervention d'AC que nous avons mise en place, puis analyse son impact et les déterminants de son succès partiel, utilisant pour cela les outils UML. La plupart des barrières étaient liées soit à une désynchronisation entre la production de connaissances, soit à la prise de décisions politiques et au manque de connaissance mutuelle entre chercheurs et décideurs. Parmi les facteurs favorisants, on a relevé le rôle déterminant d'un acteur qui était à la fois ‘décideur' et chercheur, ainsi que les bénéfices liés à l'intervention vecteurs de communication entre chercheurs et décideurs. Le troisième chapitre analyse tout d'abord quantitativement et qualitativement la production scientifique de la recherche en santé au Cambodge et montre que cette production scientifique ne couvre qu'en partie les priorités de santé publique du Cambodge même si plus de 85% des articles publiés sur la santé au Cambodge étaient accessibles gratuitement. L'étude suivante permet d'identifier les principales sources d'information des décideurs politiques ayant contribué à la préparation de la première loi nationale de lutte contre l'antibio-résistance. Nous montrons que la littérature scientifique n'est pas, au Cambodge comme ailleurs, un média approprié pour communiquer avec des autorités sanitaires. Finalement, en dernier chapitre, nous intégrons les diverses conclusions des précédents chapitres dans l'analyse des déterminants de l'AC, en tirons un modèle générique UML (diagramme de classes), que nous vérifions ensuite sur quatre projets de recherche conduits également au Cambodge dont trois ont réussi leur transfert de connaissances. Ce modèle qui pourrait être utilisable au Cambodge ou dans d'autres pays à ressources limitées. Nous concluons que si les principes de l'AC peuvent se résumer en quelques règles, ils se heurtent à de nombreuses barrières lorsqu'ils sont déclinés opérationnellement. L'AC est un processus complexe, itératif, dynamique et très contexte-dépendant. Un certain nombre de barrières à l'AC identifiées au Cambodge sont strictement identiques à celles rencontrées en Occident. Parmi les facteurs favorisants de l'AC, nous montrons que le rapprochement entre chercheurs et institutions nationales ou provinciales de santé est un atout majeur
Health research generates a growing body of scientific literature. However this scientific production is not systematically integrated into public health. Researchers and policy makers have operations and constraints that do not naturally facilitate exchanges and knowledge translation (KT) from research into health policy. This thesis focuses on the gap between research and health policy and analyzes the determinants of success or failure of KT between research and health policies in Cambodia.The first chapter defines the KT process and reviews the scarce KT interventions reported in the literature. This review shows that KT is not a new concept, even though it remains somewhat under applied. In this chapter, we also look at the tools used to model processes and health research. We conclude that the UML (unified modeling language) appears to be the best modeling tool available to analyze the KT process.The second chapter describes a KT intervention we implemented and subsequently analyzes its impact and the determinants of its partial success, using UML tools. Most of identified barriers were related to either a lack of synchronization between the production of knowledge and the health policy making, or to some lack of mutual understanding between researchers and policymakers. Among the contributing factors, we identified the key roles of an actor who was both policymaker and researcher, and of organizations which acted as communication vectors between researchers and policymakers.The third chapter first includes the quantitative and qualitative analysis of the health research scientific production in Cambodia. It shows that even though more than 85% of articles published were accessible free of charge they do not cover all public health priorities of Cambodia. The following study identifies the main sources of information for policy makers who contributed to the preparation of the first national health policy against antibiotic resistance. We show that, as elsewhere, the scientific literature is not an appropriate medium to communicate with the Cambodian health authorities.Finally in the last chapter we integrate the various findings from previous chapters into the analysis of the determinants of KT. From this analysis we draw a generic UML model (class diagram), that we test on four research projects also conducted in Cambodia. This model may be used in Cambodia or in other countries with limited resources.We conclude that if the principles of the CA can be summarized in a few simple rules, they face many barriers when they are operationally implemented. KT is a dynamic, complex , iterative, and highly context –dependent process. A number of barriers to KT identified in Cambodia are identical to those found in the West. Among the facilitating factors for KT, we show that the connection between research institutions and national or provincial health is a major asset
41

Nembé, Jocelyn. "Estimation de la fonction d'intensité d'un processus ponctuel par complexité minimale." Phd thesis, Université Joseph Fourier (Grenoble), 1996. http://tel.archives-ouvertes.fr/tel-00346118.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Soit un processus ponctuel observé sur un intervalle de temps fini, et admettant une intensité stochastique conforme au modèle de Aalen. La fonction d'intensité du processus est estimée à partir d'un échantillon indépendant et identiquement distribué de paires constituées par la réalisation du processus ponctuel et du processus prévisible associé, par la minimisation d'un critère qui représente la longueur d'un code variable pour les données observées. L'estimateur de complexité minimale est la fonction minimisant ce critère dans une famille de fonctions candidates. Un choix judicieux des fonctions de complexité permet de définir ainsi des codes universels pour des réalisations de processus ponctuels. Les estimateurs de la fonction d'intensité obtenus par minimisation de ce critère sont presque-sûrement consistants au sens de l'entropie, et au sens de la distance de Hellinger pour des fonctions de complexité satisfaisant l'inégalité de Kraft. L'étude des vitesses de convergence pour la distance de Hellinger, montre qu'elles sont majorées par celle de la redondance du code. Ces vitesses, sont précisées dans le cas des familles de fonctions trigonométriques, polynomiales et splines. Dans le cas particulier des processus de Poisson et des modèles de durées de vie avec censure, les mêmes vitesses de convergence sont obtenues pour des distances plus fortes. D'autres propriétés de l'estimateur sont présentées, notamment la découverte exacte de la fonction inconnue dans certains cas, et la normalité asymptotique. Des suites de tests exponentiels consistants sont également étudiées. Le comportement numérique de l'estimateur est analysé à travers des simulations dans le cas des modèles de durées de vie avec censure
42

Lu, Wei. "New Results on Stochastic Geometry Modeling of Cellular Networks : Modeling, Analysis and Experimental Validation." Thesis, Université Paris-Saclay (ComUE), 2015. http://www.theses.fr/2015SACLS253/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
L'hétérogénéité et l’irrégularité croissante des déploiements des réseaux sans fil de nouvelles générations soulèvent des défis importants dans l’évaluation de performances de ces réseaux. Les modèles classiques s’appuyant sur des modèles hexagonaux pour décrire les emplacements géographiques des nœuds de transmission sont difficilement adaptables à ces réseaux. Dans ce contexte, il a été proposé un nouveau paradigme de modélisation des réseaux sans fil qui s’appuie sur les processus ponctuels de Poisson (PPP), et de manière générale sur la géométrie stochastique. L'analyse, au travers de ces outils mathématiques, présente une complexité indépendante de la taille du réseau, et permet d’estimer avec précision des quantités pratiques liées aux performances des réseaux cellulaires. Cette thèse a porté sur la faisabilité mathématique de l'approche fondée sur les PPP en proposant de nouvelles méthodes mathématiques d’approximations justes incorporant des modèles de propagation du canal radio. Dans un premier temps, un nouveau cadre mathématique, considéré comme une approche Equivalent-in-Distribution (EiD), a été proposée pour le calcul exact de la probabilité d'erreur dans les réseaux cellulaires. L'approche proposée, s’appuyant donc sur la géométrie aléatoire et des modèles spatiaux, montre une complexité faible en terme d’évaluation numérique et est applicable à un grand nombre de configurations MIMO pour lesquelles nous considérons différentes techniques de modulation et techniques de récupération du signal. Dans un deuxième temps, nous étudions les performances des réseaux cellulaires en présence de relais, où trois processus ponctuels de Poisson modélisent respectivement les nœuds relais, les stations de base, et les terminaux mobiles. Pour ce modèle, nous avons considéré des critères souples d'association. Le cadre mathématique proposé et les résultats associés ont montré que les performances dépendent fortement des exposants des fonctions d’atténuation sur les deux premiers sauts sans fil. Nous montrons aussi qu’une mauvaise configuration du réseau peut amener à des gains négligeables de l’utilisation de cette technique. Enfin, nous considérons la modélisation des réseaux cellulaires au travers d’un PPP et d’un modèle unifié d'atténuation de signal généralisée qui prend en compte deux types de liaisons physiques : line-of-sight (LOS) et non-line-of-sight (NLOS). Un modèle de complexité réduite décrivant les propriétés de la liaison radio a aussi été proposée et permet de prendre en compte dans nos calculs un grand nombre de modèle radio proposés dans la littérature. Les résultats montrent, entre autres, qu’une densité optimale pour le déploiement des BS existe lorsque les liens LOS/NLOS sont classés en fonction de leur charge. Nous comparons nos résultats, s’appuyant donc sur un PPP pour modéliser la position des stations de bases et notre modèle de canal radio, avec des simulations de Monte Carlo décrivant des déploiements réels de stations de bases et un modèle de type blocages de construction empiriques. Une bonne correspondance est observée
The increasing heterogeneity and irregular deployment of the emerging wireless networks give enormous challenges to the conventional hexagonal model for abstracting the geographical locations of wireless transmission nodes. Against this backdrop, a new network paradigm by modeling the wireless nodes as a Poisson Point Process (PPP), leveraging on the mathematical tools of stochastic geometry for tractable mathematical analysis, has been proposed with the capability of fairly accurately estimating the performance of practical cellular networks. This dissertation investigated the mathematical tractability of the PPP-based approach by proposing new mathematical methodologies, fair approximations incorporating practical channel propagation models. First, a new mathematical framework, which is referred to as an Equivalent-in-Distribution (EiD)-based approach, has been proposed for computing exact error probability of cellular networks based on random spatial networks. The proposed approach is easy to compute and is shown to be applicable to a bunch of MIMO setups where the modulation techniques and signal recovery techniques are explicitly considered. Second, the performance of relay-aided cooperative cellular networks, where the relay nodes, the base stations, and the mobile terminals are modeled according to three independent PPPs, has been analyzed by assuming flexible cell association criteria. It is shown from the mathematical framework that the performance highly depends on the path-loss exponents of one-hop and two-hop links, and the relays provide negligible gains on the performance if the system is not adequately designed. Third, the PPP modeling of cellular networks with unified signal attenuation model is generalized by taking into account the effect of line-of-sight (LOS) and non-line-of-sight (NLOS) channel propagation. A tractable yet accurate link state model has been proposed to estimate other models available in the literature. It is shown that an optimal density for the BSs deployment exists when the LOS/NLOS links are classified in saturate load cellular networks. In addition, the Monte Carlo simulation results of the real BSs deployments with empirical building blockages are compared with those with PPP distributed BSs with the proposed link state approximation at the end of this dissertation as supplementary material. In general, a good matching is observed
43

Krug, Jean. "Intéractions calottes polaires/océan : modélisation des processus de vêlage au front des glaciers émissaires." Thesis, Grenoble, 2014. http://www.theses.fr/2014GRENU033/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
La contribution des calottes polaires à l'augmentation du niveau marin est un sujet de préoccupation majeure. Dans le cadre du réchauffement climatique, la dynamique de leurs glaciers émissaires évolue et ceux-ci accélèrent leur décharge de glace vers l'océan. En tant qu'exutoires des calottes polaires et régulateurs de leur perte de masse, la prise en compte de leur fonctionnement dans les prévisions d'augmentation du niveau marin est capitale. Cependant, les processus qui régissent leur dynamique sont mal contraints et il convient alors de réduire les incertitudes qui y sont liées. Les rétroactions entre la dynamique du front et la dynamique du glacier en sont un exemple représentatif. Dans ce cadre, cette thèse se concentre sur la modélisation de la dynamique du front de vêlage, et vise à proposer une nouvelle approche physique des mécanismes aboutissant au vêlage d'iceberg. Le travail réalisé ici couple la mécanique de l'endommagement et la mécanique de la rupture. Il intègre ainsi la dégradation progressive des propriétés rhéologiques de la glace aboutissant à la formation d'un champ de crevasses et modélise ensuite la propagation des fractures caractéristiques de l'évènement de vêlage. Ce modèle nouvellement créé est contraint sur une géométrie 2D en ligne d'écoulement du glacier Helheim, au Groenland, dont on parvient à reproduire un comportement cohérent de la partie terminale. Les tests de sensibilité menés sur chacun des paramètres introduits dans le modèle contraignent l'importance de chacun d'eux. On évalue ensuite l'impact sur la dynamique du front de deux forçages naturels couramment observés dans les fjords groenlandais : la fonte de la partie immergée du front et l'impact mécanique d'un mélange de glace (mélange de glace de mer et d'icebergs). Les résultats suggèrent que si la fonte affecte légèrement la dynamique du front, le mélange de glace provoque une réponse saisonnière d'une amplitude similaire aux variations observées dans la réalité. En frottant contre les parois du fjord, il empêche le vêlage et favorise l'avancée du glacier. On montre également que la fonte ne modifie pas le bilan de masse du glacier, mais que l'effet du mélange de glace est plus marqué. Enfin, nos résultats suggèrent que lorsque le glacier présente une extension flottante, un forçage élevé peut modifier l'équilibre du glacier et affecter plus considérablement son bilan de masse pluriannuel
Polar ice-sheets discharge and subsequent sea level rise is a major concern. Warming climate affects the behaviour of tidewater outlets glaciers and increases their ice discharge. As they drain the ice flow toward the ocean, it is pivotal to incorporate their dynamics when modelling the ice-sheet response to global warming. However, tidewater glacier dynamics is still complicated to understand, as they are believed to involve many feedbacks. The one between calving margin dynamics and glacier general dynamics is fundamental. This PhD thesis focuses on modelling the calving front of outlet glaciers, in order to enhance the representation of physical processes occurring at their margin. To do so, we build up a new framework for calving based on damage mechanics and fracture mechanics. This allows us to represent the slow degradation of the ice rheological properties from a virgin state to the appearance of a crevasse field, as well as the rapid fracture propagation associated with calving events. Our model is then constrained within a 2D flow-line representation of Helheim Glacier, Greenland. We find some parameters sets for which the glacier behaviour is coherent with its past evolution. Sensitivity tests are carried out and they reveal the significance of each model parameter. This new calving law is then employed to study the impact of submarine frontal melting and ice mélange (heterogeneous mixture of sea-ice and icebergs) on glacier dynamics. These two forcings are usually suspected to be responsible for the seasonal variations of the calving margin. Our results show that both forcings impact the front dynamics. The melting, however, only slightly changes the front position, when the ice mélange can force the glacier front to displace up to a few kilometers. Additionally, if the melting at the front is not sufficient to affect the inter-annual mass balance, this is not obvious when forced by ice mélange. At last, our model highlights a feature which is specific to floating glaciers: for the strongest forcings, the glacier equilibrium may be modified, as well as its pluri-annual mass balance.STAR
44

Lambert-Lacroix, Sophie. "Fonction d'autocorrélation partielle des processus à temps discret non stationnaires et applications." Phd thesis, Université Joseph Fourier (Grenoble), 1998. http://tel.archives-ouvertes.fr/tel-00004893.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Cette thèse présente la fonction d'autocorrélation partielle d'un processus non stationnaire ainsi que des applications dans le domaine spectral et dans le cadre des processus périodiquement corrélés. Après avoir introduit cette fonction, nous montrons qu'elle caractérise la structure au second ordre des processus non stationnaires. Son intérêt est d'être facilement identifiable par rapport à la fonction d'autocovariance qui doit être de type positif. De plus elle conduit de façon naturelle à la définition d'un nouveau spectre dépendant du temps. Ce dernier décrit, à chaque instant, une situation stationnaire dans laquelle le présent est corrélé avec le passé de la même façon que le processus non stationnaire au même instant. L'étude des propriétés de ce spectre permet de le comparer à deux autres de même nature. On se restreint ensuite à la classe particulière des processus périodiquement corrélés. La fonction d'autocorrélation partielle fournit une nouvelle paramétrisation qui permet, en particulier, d'étendre de façon naturelle la méthode du maximum d'entropie à cette situation. Enfin nous considérons l'estimation autorégressive dans le cadre de ces processus en proposant une estimation adéquate de ces paramètres. La comparaison avec les procédures existantes est effectuée en regroupant certaines d'entre elles dans une même méthodologie mais aussi par simulation. Nous étudions également le lien entre ces approches et celles du cas vectoriel stationnaire.
45

Fontaine, Gauthier. "Modélisation théorique et processus associés pour Architectes Modèle dans un environnement multidisciplinaire." Thesis, Université Paris-Saclay (ComUE), 2017. http://www.theses.fr/2017SACLY004.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
La simulation multi-disciplinaire et multi-physique représente un enjeu scientifique et industriel majeur. La simulation a été essentiellement traitée par les physiciens (mécanique, électromagnétique, ...) comme un problème numérique sur des cas d'étude très précis mais n'a jamais été abordée d'un point de vue système. La problématique générale posée par la simulation de systèmes complexes inclut la composition des modèles, l'optimisation multi-objectifs, la sémantique et la vérification formelle des compositions et le cadre offert par l'ingénierie système. Cette thèse propose une démarche originale établissant les fondements théoriques et méthodologiques pour un processus sans rupture entre ingénierie système, optimisation multi-objectif et simulation multi-physique. Des cas d'études issus de l'automobile démontrent la validité de cette approche expérimentée sur la base du langage Modelica
Multi-disciplinary and multi-physics simulation represents a major scientific and industrial challenge. The simulation has essentially been considered by physicists (mechanic domain, electromagnetic domain, ...) as a numerical problem on specific case studies but has never been adressed from a system perspective. The general problem induced by the numerical simulation of complex systems include model composition, multi-objective optimization, the semantics and formal verification of compositions and the frame of systems engineering. This thesis proposes an original approach establishing the theoretical and methodological foundations for a seamless process between systems engineering, multi-objective optimization and multi-physics simulation. Automotive case studies show the validity of such an approach based on Modelica langage
46

Monteiro, Julian Geraldes. "Modeling and analysis of reliable peer-to-peer storage systems." Nice, 2010. http://www.theses.fr/2010NICE4038.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Cette thèse vise à fournir des outils permettant d’analyser et de prédire la performance de systèmes de stockage de données à grande échelle. Nous avons utilisé ces outils pour analyser l’impact de différents choix de conception du système sur différentes mesures de performance. Par exemple, la consommation de bande passante, l’espace de stockage et la probabilité de perdre des données doivent être aussi faibles que possible. Tout d’abord, nous décrivons un modèle simple par chaîne de Markov et nous établissons des formules mathématiques closes. Ces formules nous permettent de comprendre les interactions entre les paramètres du système. Nous confirmons en comparant à des simulations que ces modèles donnent des approximations correctes du comportement moyen du système. En effet, un mécanisme de réparation paresseux est étudié et nous décrivons comment régler les paramètres du système pour obtenir une utilisation efficace de la bande passante. Nous proposons ensuite un nouveau modèle stochastique basé sur une approximation fluide pour saisir les écarts par rapport au comportement moyen. De plus, nous étudions plusieurs autres aspects d’un système de stockage distribué : nous utilisons un modèle de files d’attente pour calculer le temps de réparation pour un système avec bande passante limitée ; nous étudions un système de codage hybride : en mixant les codes d’effacement avec la simple réplication des données ; enfin, nous étudions l’impact des différentes façons de distribuer des fragments de données entre les pairs
This thesis aims at providing tools to analyze and predict the performance of general large scale data storage systems. We use these tools to analyze the impact of different choices of system design on different performance metrics. For instance, the bandwidth consumption, the storage space overhead, and the probability of data loss should be as small as possible. Different techniques are studied and applied. First, we describe a simple Markov chain model that harnesses the dynamics of a storage system under the effects of peer failures and of data repair. Then we provide closed-form formulas that give good approximations of the model. These formulas allow us to understand the interactions between the system parameters. Indeed, a lazy repair mechanism is studied and we describe how to tune the system parameters to obtain an efficient utilization of bandwidth. We confirm by comparing to simulations that this model gives correct approximations of the system average behavior, but it does not capture its variations over time. We then propose a new stochastic model based on a fluid approximation that indeed captures the deviations around the mean behavior. These variations are most of the time neglected by previous works, despite being very important to correctly allocate the system resources. We additionally study several other aspects of a distributed storage system: we propose queuing models to calculate the repair time distribution under limited bandwidth scenarios; we discuss the trade-offs of a Hybrid coding (mixing erasure codes and replication); and finally we study the impact of different ways to distribute data fragments among peers, i. E. , placement strategies
47

Ebbinghaus, Maximilian. "Stochastic modeling of intracellular processes : bidirectional transport and microtubule dynamics." Phd thesis, Université Paris Sud - Paris XI, 2011. http://tel.archives-ouvertes.fr/tel-00592078.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
This thesis uses methods and models from non-equilibrium statistical physics to describe intracellular processes. Bidirectional microtubule-based transport within axons is modeled as a quasi-one-dimensional stochastic lattice gas with two particle species moving in opposite directions under mutual exclusion interaction. Generically occurring clusters of particles in current models for intracellular transport can be dissolved by additionally considering the dynamics of the transport lattice, i.e., the microtubule. An idealized model for the lattice dynamics is used to create a phase transition toward a homogenous state with efficient transport in both directions. In the thermodynamic limit, a steady state property of the dynamic lattice limits the maximal size of clusters. Lane formation mechanisms which are due to specific particle-particle interactions turn out to be very sensitive to the model assumptions. Furthermore, even if some particle-particle interaction is considered, taking the lattice dynamics into account almost always improves transport. Thus the lattice dynamics seems to be the key aspect in understanding how nature regulates intracellular traffic. The last part introduces a model for the dynamics of a microtubule which is limited in its growth by the cell boundary. The action of a rescue-enhancing protein which is added to the growing tip of a microtubule and then slowly dissociates leads to interesting aging effects which should be experimentally observable.
48

Coeurjolly, Jean-François. "Inférence statistique pour les mouvements browniens fractionnaires et multifractionnaires." Phd thesis, Université Joseph Fourier (Grenoble), 2000. http://tel.archives-ouvertes.fr/tel-00006736.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Dans cette thèse, nous étudions divers problèmes statistiques liés à deux modèles paramétriques stochastiques que sont le mouvement brownien fractionnaire (mbf) et le mouvement brownien multifractionnaire (mbm). Le mbf a été introduit en statistique à partir de 1968 pour modéliser des phénomènes autosimilaires (i.e. invariants par changements d'échelle) et des séries chronologiques exhibant une structure de dépendance uniforme qui décroî t de manière hyperbolique avec le temps. Le mbm, apparu beaucoup plus récemment, constitue une extension du mbf au sens où la structure de dépendance peut évoluer au cours du temps : l'autosimilarité n'est alors vérifiée qu'asymptotiquement localement. L'objectif initial de ce travail de recherche a été l'identification de ce dernier modèle. Néanmoins, ce travail a nécessité des connaissances théoriques constituées par un traitement approfondi et pertinent du mbf, tant sur la compréhension des résultats obtenus jusqu'alors que sur leurs extensions.
49

El, Jirari Soukaïna. "Modélisation numérique du processus de creusement pressurisé des tunnels." Thesis, Lyon, 2021. http://www.theses.fr/2021LYSET002.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
De nos jours, le recours aux tunneliers à front pressurisé est de plus en plus fréquent, en particulier en sites urbains, où les conditions de creusement de tunnels sont souvent difficiles tant du point de vue géotechnique qu’environnemental. La préservation du bâti et des structures avoisinantes exige donc une garantie de la stabilité de l’ouvrage, une limitation des tassements en surface et un contrôle des impacts sur les structures avoisinantes au cours du creusement. Ce travail de thèse vise à analyser l’impact du creusement aux tunneliers à front pressurisé sur le terrain en développant un outil de modélisation numérique aux éléments finis, simplifié et en mesure de reproduire au mieux les pertes de volume autour de l’excavation et en surface du terrain. Dans un premier temps, un procédé tridimensionnel du processus de creusement des tunnels en terrain vierge est développé. Ce procédé de modélisation numérique doit pouvoir reproduire correctement les différentes étapes du processus de creusement afin de produire une estimation la plus réaliste possible de l’ensemble des mouvements générées dans le sol par le creusement. Dans un second temps, une étude paramétrique sur les paramètres mécaniques du sol ainsi que sur les paramètres de pilotage du tunnelier est effectuée afin de mieux appréhender l’impact de chaque paramètre sur la réponse du modèle numérique réalisé. Ensuite, un outil bidimensionnel simplifié « équivalent » à destination des bureaux d’études est proposé sur la base des résultats de l’approche numérique tridimensionnelle et de l’étude paramétrique. Il doit pouvoir évaluer les mouvements du terrain autour d’une section courante du tunnel en fonction de la distance au front de taille, en veillant à ce que le passage de l’approche 3D à l’approche 2D repose sur une démarche justifiée scientifiquement. Enfin, la validation de ces deux outils sur plusieurs sections de chantiers réels est effectuée en prenant en compte les conditions géologiques, hydrogéologiques et géotechniques rencontrées ainsi que le mode de pressurisation du tunnelier (terre, boue) et les conditions de pilotage de la machine
Due to traffic congestion and environmental factors, urban development nowadays involves the construction of new tunnels for transportation purposes or underground networks. Especially in urban areas where the control of soil deformation during excavation is the predominant problem, the use of pressurized tunnel boring machines (TBM) is becoming increasingly frequent. This excavation process is the most adapted to guarantee a stringent control of surface settlements and displacements near the tunnel, and consequently for preserving the dense and vulnerable housing area at ground surface, as well as existing underground construction nearby. However, pressurized TBM tunnelling remains a complex process. In particular, the interaction between the machine and the surrounding soil involves various mechanisms that need to be well understood in order to be well controlled. This PhD work falls within this context. It aims to describe and to analyse the behaviour of the interaction between the TBM and the surrounding soil by means of a numerical approach based on finite elements method. In a first part, a 3D numerical model is developed in order to reproduce as well as possible the different stages of the tunnelling process and the various volume losses occurring into the ground around the machine. Based on a parametric study, the influence of the machine control parameters and the mechanical characteristics of the soil on the kinematics of the ground around the tunnel is studied and quantified. In a second part, a simplified 2D numerical model is developed to be used in the framework of pre-project studies by design offices. This 2D model aims to predict the amplitude of ground movements around the current section of the tunnel according to the distance to the tunnel face. The hypothesis of this “equivalent” 2D model are deduced from the results of the 3D numerical analysis and the well-known “convergence/confinement” method is used to take into account the 3D nature of the problem. In a last part, the capacities and limitations of these two numerical models are analysed and discussed by comparing the numerical results with data from three monitored sections of two construction sites. For this comparison, the geological, hydrogeological and geotechnical conditions crossed as well as the pressurization mode of the TBM (EPB, slurry TBM) and the controlling conditions of the machine are taken into account
50

Giannakas, Theodoros. "Joint modeling and optimization of caching and recommendation systems." Electronic Thesis or Diss., Sorbonne université, 2020. http://www.theses.fr/2020SORUS317.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
La mise en cache du contenu au plus près des utilisateurs a été proposée comme un scénario gagnant-gagnant afin d'offrir de meilleurs tarifs aux utilisateurs tout en économisant sur les coûts des opérateurs. Néanmoins, la mise en cache peut réussir si les fichiers mis en cache parviennent à attirer un grand nombre de demandes. À cette fin, nous profitons du fait qu'Internet est de plus en plus axé sur le divertissement et proposons de lier les systèmes de recommandation et la mise en cache afin d'augmenter le taux de réussite. Nous modélisons un utilisateur qui demande plusieurs contenus à partir d'un réseau équipé d'un cache. Nous proposons un cadre de modélisation pour un tel utilisateur qui est basé sur des chaînes de Markov et s'écarte de l'IRM. Nous explorons différentes versions du problème et dérivons des solutions optimales et sous-optimales selon le cas que nous examinons. Enfin, nous examinons la variation du problème de mise en cache prenant en compte la recommandation et proposons des algorithmes pratiques assortis de garanties de performances. Pour les premiers, les résultats indiquent qu'il y a des gains élevés pour les opérateurs et que les schémas myopes sans vision sont fortement sous-optimaux. Alors que pour ce dernier, nous concluons que les décisions de mise en cache peuvent considérablement s'améliorer en tenant compte des recommandations sous-jacentes
Caching content closer to the users has been proposed as a win-win scenario in order to offer better rates to the users while saving costs from the operators. Nonetheless, caching can be successful if the cached files manage to attract a lot of requests. To this end, we take advantage of the fact that the internet is becoming more entertainment oriented and propose to bind recommendation systems and caching in order to increase the hit rate. We model a user who requests multiple contents from a network which is equipped with a cache. We propose a modeling framework for such a user which is based on Markov chains and depart from the IRM. We delve into different versions of the problem and derive optimal and suboptimal solutions according to the case we examine. Finally we examine the variation of the Recommendation aware caching problem and propose practical algorithms that come with performance guarantees. For the former, the results indicate that there are high gains for the operators and that myopic schemes without a vision, are heavily suboptimal. While for the latter, we conclude that the caching decisions can significantly improve when taking into consideration the underlying recommendations

До бібліографії