Tesi sul tema "Cycle de vie de la donnée"

Segui questo link per vedere altri tipi di pubblicazioni sul tema: Cycle de vie de la donnée.

Cita una fonte nei formati APA, MLA, Chicago, Harvard e in molti altri stili

Scegli il tipo di fonte:

Vedi i top-50 saggi (tesi di laurea o di dottorato) per l'attività di ricerca sul tema "Cycle de vie de la donnée".

Accanto a ogni fonte nell'elenco di riferimenti c'è un pulsante "Aggiungi alla bibliografia". Premilo e genereremo automaticamente la citazione bibliografica dell'opera scelta nello stile citazionale di cui hai bisogno: APA, MLA, Harvard, Chicago, Vancouver ecc.

Puoi anche scaricare il testo completo della pubblicazione scientifica nel formato .pdf e leggere online l'abstract (il sommario) dell'opera se è presente nei metadati.

Vedi le tesi di molte aree scientifiche e compila una bibliografia corretta.

1

Delalandre, Léo. "Relations traits-environnement chez les végétaux : du cycle de vie des organismes au cycle de vie des données". Electronic Thesis or Diss., Université de Montpellier (2022-....), 2024. http://www.theses.fr/2024UMONG001.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
L’écologie comparative a mis en évidence des associations récurrentes entre les traits fonctionnels des plantes et leur environnement. Ces relations peuvent varier selon le niveau d’organisation considéré – au sein des espèces, entre les espèces, et entre groupes d’espèces –, mais cette dépendance demeure peu étudiée. Une distinction fondamentale dans les théories de l’histoire de vie est effectuée entre espèces annuelles (réalisant leur cycle de vie en une année) et pérennes (cycle de vie sur plus d’une année, avec généralement plusieurs événements de reproduction). Les annuelles et les pérennes herbacées diffèrent quant à leur fonctionnement (vitesse de croissance, investissement dans la production de graines, allocation aux racines, etc.). Cependant, bien qu’elles coexistent fréquemment, peu d’études considèrent les potentielles différences dans les relations traits-environnements entre ces deux groupes. L’objectif de cette thèse est de comprendre les spécificités des variations des traits des plantes annuelles en fonction de la disponibilité en ressources du milieu, à partir de mesures in situ et en jardin commun.Nous avons étudié des communautés de parcours ovins des Grands Causses, où annuelles et pérennes coexistent dans deux conditions environnementales contrastées : i) fertilisation et forte perturbation, et ii) sol pauvre et perturbation mois intense. Nous montrons que les variations des traits liés à la vitesse de croissance et à la densité des tissus foliaires sont plus faibles chez les annuelles que chez les pérennes. Ceci s’explique par (a) un remplacement d’espèces plus élevé chez les pérennes, et (b) la présence d’espèces présentant de plus grandes différences de valeurs de traits entre environnements chez les pérennes. Les variations intraspécifiques sont identiques entre les deux groupes d’espèces. Les mesures effectuées au cours de de ce premier volet ont permis de compléter une base de données de traits en cours de développement. A cette occasion, j’ai contribué à la structuration de cette base par un travail de gestion des données, visant à proposer des modalités de partage des données de traits fonctionnels et des variables environnementales associées ; une synthèse de ce travail est proposée. Dans un second temps, nous avons analysé la variabilité intraspécifique chez les annuelles de ces communautés, afin de tester son origine (génétique ou plastique), d’identifier les traits les plus variables en réponse à la fertilisation, et de comparer cette variabilité entre espèces. Trente populations ont été cultivées en jardin commun, avec une fertilisation faible ou élevée. Les résultats indiquent que i) les variations de traits observées in situ sont vraisemblablement d’origine plastique ; ii) la plasticité est faible sur les traits morphologiques des feuilles et des racines, mais forte sur l’allocation de la biomasse et la teneur en azote ; iii) les espèces préférentes pour des milieux riches en nutriments sont plus plastiques sur leur teneur en azote.Enfin, un travail de revue de la littérature a été engagé de manière à déterminer quels traits sont déterminants pour les herbacées annuelles et pérennes, en raisonnant sur les composantes de la démographie (reproduction, croissance, survie), dont l’importance diffère selon le cycle de vie. Nous proposons un article d’opinion visant à proposer comment mieux intégrer le cycle de vie et les trait morpho-physio-phénologiques communément mesurés.Cette thèse propose une étude des relations entre traits fonctionnels et environnement à différents niveaux d’organisation : entre cycles de vie, entre espèces, et au sein des espèces. Elle met en évidence que les relations trait-environnement peuvent varier entre ces niveaux, s’inscrivant dans un regain d’intérêt pour la prise en compte de la dépendance au contexte en écologie comparative
Comparative ecology has highlighted recurring associations between plant functional traits and their environment. These relationships may vary depending on the level of organization considered – within species, between species, and among groups of species – but this dependency remains poorly studied. A fundamental distinction in life history theories is made between annual species (completing their life cycle in one year) and perennial species (life cycle over more than one year, usually with multiple reproductive events). Annual and perennial herbaceous plants differ in their functioning (growth rate, investment in seed production, allocation to roots, etc.). However, despite their frequent coexistence, few studies have considered potential differences in trait-environment relationships between these two groups. The objective of this thesis is to understand the specific variations in the traits of annual plants depending on resource availability, based on in situ measurements and in a common garden setting.We studied herbaceous communities in the Grands Causses, where annuals and perennials coexist in two contrasting environmental conditions: i) fertilization and high disturbance, and ii) poor soil and less intense disturbance. We show that variations in traits related to growth rate and leaf tissue density are lower in annuals than in perennials. This is explained by (a) a higher species turnover in perennials, and (b) the presence of species with larger differences in trait values between environments in perennials. Intraspecific variations are identical between the two groups of species. Measurements made during this first part were used to complete a trait database under development. On this occasion, I contributed to the structuring of this database through data management work, aiming to propose modalities for sharing functional trait data and associated environmental variables; a synthesis of this work is proposed.Secondly, we analyzed intraspecific variability in annuals from these communities, in order to test its origin (genetic or plastic), to identify the most variable traits in response to fertilization, and to compare this variability between species. Thirty populations were grown in a common garden, with low or high fertilization. The results indicate that i) the observed trait variations in situ are likely of plastic origin; ii) plasticity is low in morphological leaf and root traits but high in biomass allocation and nitrogen content; iii) species preferring nutrient-rich environments are more plastic in their nitrogen content.Finally, a literature review was undertaken to determine which traits are determinant for annual and perennial herbaceous plants, reasoning on demographic components (reproduction, growth, survival), the importance of which differs according to the life cycle. We propose an opinion article aiming to better integrate life cycle and commonly measured morpho-physio-phenological traits.This thesis proposes a study of the relationships between functional traits and the environment at different levels of organization: between life cycles, between species, and within species. It highlights that trait-environment relationships can vary between these levels, fitting into a renewed interest in context dependency in comparative ecology
2

Bertin, Jean-Marie. "Modélisation sémantique des bases de données d'inventaires en cycle de vie". Phd thesis, INSA de Lyon, 2013. http://tel.archives-ouvertes.fr/tel-00876636.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
L'analyse des impacts environnementaux de la production de biens et de services est aujourd'hui devenue un enjeu majeur. L'analyse en cycle de vie est la méthode consacrée pour modéliser les impacts environnementaux des activités humaines. L'inventaire en cycle de vie, qui est l'une des étapes de cette méthode, consiste à décomposer les activités économiques en processus interdépendants. Chaque processus a des impacts environnementaux et la composition de ces processus nous donne l'impact cumulé des activités étudiées. Plusieurs entreprises et agences gouvernementales fournissent des bases de données d'inventaires en cycle de vie pour que les experts puissent réutiliser des processus déjà étudiés lors de l'analyse d'un nouveau système. L'audit et la compréhension de ces inventaires nécessite de s'intéresser à un très grand nombre de processus et à leurs relations d'interdépendance. Ces bases de données peuvent comporter plusieurs milliers de processus et des dizaines de milliers de relations de dépendance. Pour les experts qui utilisent les bases de données d'inventaire en cycle de vie, deux problèmes importants sont clairement identifiés : - organiser les processus pour avoir une meilleure compréhensibilité du modèle ; - calculer les impacts d'une modélisation (composition de processus) et, le cas échéant, détecter les raisons de la non convergence du calcul. Dans cette thèse, nous : - mettons en évidence de l'existence de similarités sémantiques entre les processus et leurs relations d'interdépendance et proposons une nouvelle approche pour modéliser les relations d'interdépendance entre les processus d'une base de données d'inventaire. Elle se base sur un étiquetage sémantique des processus à l'aide d'une ontologie et une modélisation multi-niveaux des relations d'interdépendance entre les processus. Nous étudions aussi deux approches déclaratives d'interaction avec ce modèle multi-niveau. - étudions les différentes méthodes de calcul des impacts basées sur des notions classiques d'algèbre linéaire et de théorie des graphes. Nous étudions aussi les conditions de non convergence de ces méthodes en présence de cycle dans le modèle des relations de dépendances. Un prototype implémentant cette approche a montré des résultats probants sur les cas étudiés. Nous avons réalisé une étude de cas de ce prototype sur les processus de production d'électricité aux États-Unis extraits de la base de données d'inventaire en cycle de vie de l'agence environnementale américaine. Ce prototype est à la base d'une application opérationnelle utilisée par l'entreprise.
3

Bertin, Benjamin. "Modélisation sémantique des bases de données d'inventaires en cycle de vie". Thesis, Lyon, INSA, 2013. http://www.theses.fr/2013ISAL0049/document.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
L'analyse des impacts environnementaux de la production de biens et de services est aujourd'hui devenue un enjeu majeur. L'analyse en cycle de vie est la méthode consacrée pour modéliser les impacts environnementaux des activités humaines. L'inventaire en cycle de vie, qui est l'une des étapes de cette méthode, consiste à décomposer les activités économiques en processus interdépendants. Chaque processus a des impacts environnementaux et la composition de ces processus nous donne l'impact cumulé des activités étudiées. Plusieurs entreprises et agences gouvernementales fournissent des bases de données d'inventaires en cycle de vie pour que les experts puissent réutiliser des processus déjà étudiés lors de l'analyse d'un nouveau système. L'audit et la compréhension de ces inventaires nécessite de s'intéresser à un très grand nombre de processus et à leurs relations d'interdépendance. Ces bases de données peuvent comporter plusieurs milliers de processus et des dizaines de milliers de relations de dépendance. Pour les experts qui utilisent les bases de données d'inventaire en cycle de vie, deux problèmes importants sont clairement identifiés : - organiser les processus pour avoir une meilleure compréhensibilité du modèle ; - calculer les impacts d'une modélisation (composition de processus) et, le cas échéant, détecter les raisons de la non convergence du calcul. Dans cette thèse, nous : - mettons en évidence de l'existence de similarités sémantiques entre les processus et leurs relations d'interdépendance et proposons une nouvelle approche pour modéliser les relations d'interdépendance entre les processus d'une base de données d'inventaire. Elle se base sur un étiquetage sémantique des processus à l'aide d'une ontologie et une modélisation multi-niveaux des relations d'interdépendance entre les processus. Nous étudions aussi deux approches déclaratives d'interaction avec ce modèle multi-niveau. - étudions les différentes méthodes de calcul des impacts basées sur des notions classiques d'algèbre linéaire et de théorie des graphes. Nous étudions aussi les conditions de non convergence de ces méthodes en présence de cycle dans le modèle des relations de dépendances. Un prototype implémentant cette approche a montré des résultats probants sur les cas étudiés. Nous avons réalisé une étude de cas de ce prototype sur les processus de production d'électricité aux États-Unis extraits de la base de données d'inventaire en cycle de vie de l'agence environnementale américaine. Ce prototype est à la base d'une application opérationnelle utilisée par l'entreprise
Environmental impact assessment of goods and services is nowadays a major challenge for both economic and ethical reasons. Life Cycle Assessment provides a well accepted methodology for modeling environmental impacts of human activities. This methodology relies on the decomposition of a studied system into interdependent processes in a step called Life Cycle Inventory. Every process has several environmental impacts and the composition of those processes provides the cumulated environmental impact for the studied human activities. Several organizations provide processes databases containing several thousands of processes with their interdependency links that are used by LCA practitioners to do an LCA study. Understanding and audit of those databases requires to analyze a huge amount of processes and their dependency relations. But those databases can contain thousands of processes linked together. We identified two problems that the experts faces using those databases: - organize the processes and their dependency relations to improve the comprehensibility; - calculate the impacts and, if it is not possible, find why it is not feasible. In this thesis, we: - show that there are some semantic similarities between the processes and their dependency relations and propose a new way to model the dependency relations in an inventory database. In our approach, we semantically index the processes using an ontology and we use a multi-layers model of the dependency relations. We also study a declarative approach of this multi-layers approach; - propose a method to calculate the environmental impacts of the processes based on linear algebra and graph theory, and we study the conditions of the feasibility of this calculation when we have a cyclic model. We developed a prototype based on this approach that showed some convincing results on different use cases. We tested our prototype on a case study based on a data set extracted from the National Renewable Energy restricted to the electricity production in the United-States
4

Beloin-Saint-Pierre, Didier. "Vers une caractérisation spatiotemporelle pour l'analyse du cycle de vie". Phd thesis, Ecole Nationale Supérieure des Mines de Paris, 2012. http://pastel.archives-ouvertes.fr/pastel-00857936.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Cette thèse présente différents développements à la méthode analyse de cycle de vie (ACV) afin d'améliorer le niveau de considération des spécificités spatiotemporelles lors de la modélisation de systèmes. Ces développements abordent la question de la caractérisation des flux décrivant les systèmes. La discussion débute par une analyse des développements récents de la méthode ACV en ce qui concerne la considération des spécificités spatiotemporelles dans les différentes phases de cette méthode. Cette analyse identifie des lacunes quant à la pertinence des modes de caractérisation spatiale et temporelle existants. Un nouveau mode de caractérisation spatiotemporelle est alors pro-posé. La représentativité du système modélisé, le potentiel de précision de la caractérisation et le temps de travail nécessaire à la modélisation de différents systèmes sont trois critères importants qui ont été considérés pour la création de ce nouveau mode de caractérisation spatiotemporelle. Le nouveau mode proposé permet en particulier d'améliorer la généricité des processus définissant des systèmes dans différentes bases de données. Celui-ci permet ainsi de diminuer l'augmentation inévitable du travail lié à la caractérisation temporelle des systèmes. Le nouveau mode de caractérisation temporelle requiert toutefois une modification importante de la méthode de calcul des inventaires cycle de vie en raison de l'utilisation de distributions temporelles. La faisabilité de l'utilisation de ce nouveau mode et de la nouvelle méthode de calcul d'inventaire est ensuite démontrée par leurs mises en œuvre pour différents cas d'études de production d'énergie à partir de sources renouvelables. Les deux cas d'études retenus permettent de souligner l'intérêt d'une telle caractérisation spatiotemporelle accédant ainsi à une modélisation plus représentative des systèmes en fonction du niveau de précision retenu. Avec cette nouvelle approche nommée ESPA+, l'accès à ce niveau de représentativité s'accompagne cependant d'une diminution du potentiel de complétude de l'analyse. En effet, la méthode de calcul permet difficilement de dynamiser la totalité des systèmes modélisés.
5

Khouri, Selma. "Cycle de vie sémantique de conception de systèmes de stockage et manipulation de données". Thesis, Chasseneuil-du-Poitou, Ecole nationale supérieure de mécanique et d'aérotechnique, 2013. http://www.theses.fr/2013ESMA0016/document.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Les ED deviennent des composants incontournables dans les entreprises et les organisations.Le thème de conception des ED a fait l’objet de recherches actives ces dernières années. Laprincipale limitation des approches proposées est le manque d’une vision globale s’inscrivantdans le cadre du cycle de conception des ED, même si la communauté reconnait toutes lesphases de ce cycle. Nos principales contributions dans cette thèse portent sur la proposition d’uneméthode de conception adaptée aux récentes évolutions qu’a connu le cycle de conception, etenglobant l’ensemble de ses phases. Le cycle de conception a connu une diversification importantedes modèles de stockage de données et des architectures de déploiement possibles offrant deschoix de conception variés. Ce cycle reconnait l’importance des besoins des utilisateurs dansle processus de conception, et l’importance d’accès et de représentation de la sémantique desdonnées. Notre première proposition présente une méthode de conception suivant une approcheà base d’ontologies de domaine, permettant de valoriser les besoins des utilisateurs en leur offrantune vue persistante au sein de l’ED. Cette vue permet d’anticiper diverses tâches de conceptionet de simuler les différents choix de conception. Notre deuxième proposition revisite le cycle deconception en exécutant la phase ETL (extraction-transformation-chargement des données) dèsla phase conceptuelle. Cette proposition permet de fournir un moyen de déploiement multiplesur différentes plateformes disponibles
Data Warehouses (DWs) become essential components for companies and organizations.DWdesign field has been actively researched in recent years. The main limitation of the proposedapproaches is the lack of an overall vision covering the DW design cycle. Our main contributionin this thesis is to propose a method adapted to recent evolutions of the DW design cycle,and covering all its phases. These evolutions have given rise to new data storage models andnew deployment architectures, which offers different design choices for designers and administrators.DW literature recognizes the importance of user requirements in the design process, andthe importance of accessing and representing data semantics. We propose an ontology drivendesign method that valorizes users’ requirements by providing them a persistent view in theDW structure. This view allows anticipating diverse design tasks and simulating different designchoices. Our second proposal revisits the design cycle by executing the ETL phase (extractiontransformation-loading of data) in the conceptual stage. This proposal allows a deployment à lacarte of the DW using the different deployment platforms available
6

Khouri, Selma, e Selma Khouri. "Cycle de vie sémantique de conception de systèmes de stockage et manipulation de données". Phd thesis, ISAE-ENSMA Ecole Nationale Supérieure de Mécanique et d'Aérotechique - Poitiers, 2013. http://tel.archives-ouvertes.fr/tel-00926657.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Les ED deviennent des composants incontournables dans les entreprises et les organisations.Le thème de conception des ED a fait l'objet de recherches actives ces dernières années. Laprincipale limitation des approches proposées est le manque d'une vision globale s'inscrivantdans le cadre du cycle de conception des ED, même si la communauté reconnait toutes lesphases de ce cycle. Nos principales contributions dans cette thèse portent sur la proposition d'uneméthode de conception adaptée aux récentes évolutions qu'a connu le cycle de conception, etenglobant l'ensemble de ses phases. Le cycle de conception a connu une diversification importantedes modèles de stockage de données et des architectures de déploiement possibles offrant deschoix de conception variés. Ce cycle reconnait l'importance des besoins des utilisateurs dansle processus de conception, et l'importance d'accès et de représentation de la sémantique desdonnées. Notre première proposition présente une méthode de conception suivant une approcheà base d'ontologies de domaine, permettant de valoriser les besoins des utilisateurs en leur offrantune vue persistante au sein de l'ED. Cette vue permet d'anticiper diverses tâches de conceptionet de simuler les différents choix de conception. Notre deuxième proposition revisite le cycle deconception en exécutant la phase ETL (extraction-transformation-chargement des données) dèsla phase conceptuelle. Cette proposition permet de fournir un moyen de déploiement multiplesur différentes plateformes disponibles.
7

Lasvaux, Sébastien. "Étude d'un modèle simplifié pour l'analyse de cycle de vie des bâtiments". Phd thesis, Paris, ENMP, 2010. https://pastel.hal.science/pastel-00712043.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Les préoccupations énergétiques et environnementales sont de plus en plus au cœur du processus de conception des bâtiments. L'approche couramment retenue pour évaluer la performance environnementale d'un bâtiment est la méthode d'Analyse de Cycle de Vie (ACV). Cette méthode utilise, à ce jour, un nombre de données très important pouvant parfois être une limite pour son application. Par exemple, il est difficile pour certains fabricants de fournir des inventaires sous la forme de plusieurs centaines de flux. De même, l'interprétation des résultats à l'aide d'une dizaine d'indicateurs environnementaux peut paraître complexe pour les professionnels du bâtiment. Dans ce contexte, l'objectif de cette recherche est d'étudier un modèle simplifié pour l'ACV des bâtiments. Pour cela, une base de données simplifiée de flux d'inventaire de cycle de vie sur les matériaux, produits de construction et procédés est dans un premier temps développée. Elle est composée de données des bases Ecoinvent et INIES à l'aide d'une nomenclature homogénéisée. L'utilisation de méthodes statistiques permet ensuite de mettre en évidence les limites et potentialités de la simplification du modèle ACV. Des modèles simplifiés d'évaluation des impacts reliant les flux et les indicateurs de l'ACV sont notamment mis au point. Ils permettent préalablement aux applications utilisant la base de données, d'identifier les flux qui sont les plus déterminants dans l'impact environnemental d'un bâtiment. La compréhension des conséquences de la simplification du modèle et les méthodes statistiques utilisées dans ce travail permettent alors de mieux cerner la fiabilité des ACV simplifiées appliquées aux produits de construction et aux bâtiments
Energy and environmental aspects are more and more integrated in the design process of buildings. Life Cycle Assessment (LCA) is generally used to assess the environmental performance of buildings. This method uses to date a high number of data which can be a limiting aspect for its application. For instance, it can be difficult for some manufacturers to give life cycle inventory (LCI) gathering several hundreds of flows. In addition, the interpretation of the results with about ten environmental indicators can be complex for the building practitioners. In this context, the aim of this research is to study a simplified model for the LCA of buildings. A simplified life cycle inventory (LCI) database gathering building materials, products and processes is first developed. It is composed of data from the Ecoinvent and INIES database with the help of a homogeneous nomenclature. The use of statistical methods then enables to assess the relevance of simplification of the LCA model. Simplified life cycle impact assessment (LCIA) model are built between the LCI flows and the LCIA indicators. They enable previously to the applications using the database to identify the flows that are the most significant in the environmental impact of a building. The understanding of the consequences of the simplification of the LCA model and the statistical methods used in this work enable to better appreciate the reliability of simplified LCA applied to building products and buildings as a whole
8

Lasvaux, Sébastien. "Étude d'un modèle simplifié pour l'analyse de cycle de vie des bâtiments". Phd thesis, École Nationale Supérieure des Mines de Paris, 2010. http://pastel.archives-ouvertes.fr/pastel-00712043.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Les préoccupations énergétiques et environnementales sont de plus en plus au cœur du processus de conception des bâtiments. L'approche couramment retenue pour évaluer la performance environnementale d'un bâtiment est la méthode d'Analyse de Cycle de Vie (ACV). Cette méthode utilise, à ce jour, un nombre de données très important pouvant parfois être une limite pour son application. Par exemple, il est difficile pour certains fabricants de fournir des inventaires sous la forme de plusieurs centaines de flux. De même, l'interprétation des résultats à l'aide d'une dizaine d'indicateurs environnementaux peut paraître complexe pour les professionnels du bâtiment. Dans ce contexte, l'objectif de cette recherche est d'étudier un modèle simplifié pour l'ACV des bâtiments. Pour cela, une base de données simplifiée de flux d'inventaire de cycle de vie sur les matériaux, produits de construction et procédés est dans un premier temps développée. Elle est composée de données des bases Ecoinvent et INIES à l'aide d'une nomenclature homogénéisée. L'utilisation de méthodes statistiques permet ensuite de mettre en évidence les limites et potentialités de la simplification du modèle ACV. Des modèles simplifiés d'évaluation des impacts reliant les flux et les indicateurs de l'ACV sont notamment mis au point. Ils permettent préalablement aux applications utilisant la base de données, d'identifier les flux qui sont les plus déterminants dans l'impact environnemental d'un bâtiment. La compréhension des conséquences de la simplification du modèle et les méthodes statistiques utilisées dans ce travail permettent alors de mieux cerner la fiabilité des ACV simplifiées appliquées aux produits de construction et aux bâtiments.
9

Kibamba, Yannick Privat. "Spécification et développement d'un environnement collaboratif de gestion du cycle de vie des données de simulation numérique". Compiègne, 2011. http://www.theses.fr/2011COMP1997.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Les travaux de recherche présentés dans ce manuscrit s’intéressent à la gestion du cycle de vie des données de simulation numérique. La simulation numérique occupe de nos jours une place majeure dans le processus de développement de produit. Permettant de minimiser le recours aux prototypes physiques et assurant une analyse réaliste du comportement physique d’un système, la simulation numérique constitue un levier majeur d’amélioration du processus de développement. Face à une concurrence accrue, les entreprises manufacturières recourent intensivement à la simulation numérique pour améliorer les performances techniques de leurs produits. En regard de cet accroissement du recours à la simulation numérique, des enjeux forts de gestion et de partage de données entre les disciplines impliquées dans la simulation numérique et celles intervenants dans les autres phases du processus de développement se sont faits jour. Cette thèse présente une étude d’amélioration des activités de simulation numérique via la mise en œuvre d’une approche PLM. Cette étude propose deux voies principales d’amélioration. La Première concerne la définition d’une structure du produit intégrant au mieux les besoins de la simulation numérique, en rapport notamment à la définition des domaines fluide et structure ainsi qu’aux interactions associées. Le deuxième axe se rapporte la gestion des dépendances entre données de simulation pour une meilleure traçabilité et une capitalisation plus aisées. Cette étude a abouti au développement d’un prototype de système SLM autour de la solution Smar’Team de Dassault Systèmes couplée à des applications métier tels que CATIA de Dassault Systèmes et Workbench d’Ansys
The proposed research work deals with the issues of Simulation Lifecycle Management (SLM). Nowadays numerical simulation plays a major role in the product development process. Indeed, reducing the need for physical prototypes and providing a relevant analysis of system behavior, numerical simulation has became a major lever for improving the development process. Faced to an increased competition, manufacturing companies rely heavily on numerical simulation to improve the technical performances of their products. According to this increasing use of numerical simulation, some issues related to data management and information sharing between simulation disciplines and with other phases of the development process has emerged. This PhD thesis presents a study of improvement of simulation activities based on an application of PLM approach. This study suggests two main areas of improvement. The first one concerns the definition of product structure for better integration of the needs of the numerical simulation, specifically in relation to the definition of fluid and structure domains and also related interactions. The second area is related to the management of dependencies between simulation data for a better traceability and an easier capitalization. This research work finally resulted in the implementation of a SLM prototype based on the solution Smar Team of Dassault Systèmes and coupled with two expert applications : CATIA, a CAD solution of Dassault Systèmes, and Workbench, a Pre/Post-processing solution of Ansys
10

Royer, Kevin. "Vers un entrepôt de données et des processus : le cas de la mobilité électrique chez EDF". Thesis, Chasseneuil-du-Poitou, Ecole nationale supérieure de mécanique et d'aérotechnique, 2015. http://www.theses.fr/2015ESMA0001/document.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Le marché du véhicule électrique (VE) est aujourd’hui en plein essor et il s’agit d’un marché quireprésente un intérêt pour des industriels comme EDF. Pour réaliser ses objectifs (optimisation de laconsommation, tarification...) EDF doit d’abord extraire des données hétérogènes (issues des VE etdes bornes de recharge) puis les analyser. Pour cela nous nous sommes orientés vers un entrepôt dedonnées (ED) qui est ensuite exploité par les processus métiers (PM). Afin d’éviter le phénomèneGarbage In/Garbage Out, les données doivent être traitées. Nous avons choisi d’utiliser une ontologiepour réduire l’hétérogénéité des sources de données. La construction d’une ontologie étant lente, nousavons proposé une solution incrémentale à base briques ontologiques modulaires liées entre elles. Laconstruction de l’ED, basé sur l’ontologie, est alors incrémentale. Afin de charger des données dansl’ED, nous avons défini les processus ETL (Extract, Transform & Load) au niveau sémantique. Ensuitenous avons modélisé les PM répétitifs selon les spécifications BPMN (Business Process Modelisation& Notation) pour extraire les connaissances requises par EDF de l’ED. L’ED constitué possède lesdonnées et des PM, le tout dans un cadre sémantique. Nous avons implémenté cela sur la plateformeOntoDB développée au Laboratoire d’Informatique et d’Automatique pour les Systèmes de l’ISAEENSMA.Elle nous a permis de manipuler l’ontologie, les données et les PM d’une manière homogènegrâce au langage OntoQL. De plus, nous lui avons fourni la capacité d’exécuter automatiquement lesPM. Cela nous a permis de fournir à EDF une plate-forme adaptée à leurs besoins à base d’élémentsdéclaratifs
Nowadays, the electrical vehicles (EV) market is undergoing a rapid expansion and has become ofgreat importance for utility companies such as EDF. In order to fulfill its objectives (demand optimization,pricing, etc.), EDF has to extract and analyze heterogeneous data from EV and charging spots. Inorder to tackle this, we used data warehousing (DW) technology serving as a basis for business process(BP). To avoid the garbage in/garbage out phenomena, data had to be formatted and standardized.We have chosen to rely on an ontology in order to deal with data sources heterogeneity. Because theconstruction of an ontology can be a slow process, we proposed an modular and incremental constructionof the ontology based on bricks. We based our DW on the ontology which makes its construction alsoan incremental process. To upload data to this particular DW, we defined the ETL (Extract, Trasform& Load) process at the semantic level. We then designed recurrent BP with BPMN (Business ProcessModelization & Notation) specifications to extract EDF required knowledge. The assembled DWpossesses data and BP that are both described in a semantic context. We implemented our solutionon the OntoDB platform, developed at the ISAE-ENSMA Laboratory of Computer Science and AutomaticControl for Systems. The solution has allowed us to homogeneously manipulate the ontology, thedata and the BP through the OntoQL language. Furthermore, we added to the proposed platform thecapacity to automatically execute any BP described with BPMN. Ultimately, we were able to provideEDF with a tailor made platform based on declarative elements adapted to their needs
11

Benkrid, Soumia. "Le déploiement, une phase à part entière dans le cycle de vie des entrepôts de données : application aux plateformes parallèles". Thesis, Chasseneuil-du-Poitou, Ecole nationale supérieure de mécanique et d'aérotechnique, 2014. http://www.theses.fr/2014ESMA0027/document.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
La conception d’un entrepôt de données parallèle consiste à choisir l’architecture matérielle,à fragmenter le schéma d’entrepôt de données, à allouer les fragments générés, à répliquer les fragments pour assurer une haute performance du système et à définir la stratégie de traitement et d’équilibrage de charges. L’inconvénient majeur de ce cycle de conception est son ignorance de l’interdépendance entre les sous-problèmes liés à la conception d’un EDP et l’utilisation des métriques hétérogènes pour atteindre le même objectif. Notre première proposition définie un modèle de coût analytique pour le traitement parallèle des requêtes OLAP dans un environnement cluster. Notre deuxième proposition prend en considération l’interdépendance existante entre la fragmentation et l’allocation. Dans ce contexte, nous avons proposé une nouvelle approche de conception d’un EDP sur un cluster de machine. Durant le processus de fragmentation, notre approche décide si le schéma de fragmentation généré est pertinent pour le processus d’allocation. Les résultats obtenus sont très encourageant et une validation est faite sur Teradata. Notre troisième proposition consiste à présenter une méthode de conception qui est une extension de notre travail. Dans cette phase, une méthode de réplication originale, basée sur la logique floue, est intégrée
Designing a parallel data warehouse consists of choosing the hardware architecture, fragmenting the data warehouse schema, allocating the generated fragments, replicating fragments to ensure high system performance and defining the treatment strategy and load balancing.The major drawback of this design cycle is its ignorance of the interdependence between subproblems related to the design of PDW and the use of heterogeneous metrics to achieve thesame goal. Our first proposal defines an analytical cost model for parallel processing of OLAP queries in a cluster environment. Our second takes into account the interdependence existing between fragmentation and allocation. In this context, we proposed a new approach to designa PDW on a cluster machine. During the fragmentation process, our approach determines whether the fragmentation pattern generated is relevant to the allocation process or not. The results are very encouraging and validation is done on Teradata. For our third proposition, we presented a design method which is an extension of our work. In this phase, an original method of replication, based on fuzzy logic is integrated
12

Pichon, Noémie. "Méthode de génération de données d’inventaire du génie des procédés textiles : contribution à l’écoconception des vêtements". Electronic Thesis or Diss., Centrale Lille Institut, 2023. http://www.theses.fr/2023CLIL0039.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
L’industrie de la mode et du textile est une chaine de valeur complexe, fortement fragmentée et mondialisée qui nécessite de nombreux corps de métiers, dont les expertises sont spécifiques et le niveau de connaissance sur les enjeux environnementaux du secteur s’avère très hétérogène. A l’heure où la prise en compte des problématiques climatiques et environnementales n’a jamais été aussi présente, la littérature scientifique s’est étoffée pour évaluer les impacts sur l’environnement et la santé humaine de ce secteur d’activité identifié comme la quatrième industrie la plus polluante d'Europe, toutes catégories d'impact confondues. L’éco-conception des produits est une démarche aujourd’hui centrale pour l’atteinte des objectifs de réduction des impacts du secteur. L’enjeu est aujourd’hui d’étendre son usage à un maximum d’acteurs.L’objet principal de ces travaux a été de mettre au point une méthode de génération de données d’Inventaire du Cycle de Vie (ICV) textile afin de favoriser la démarche d’éco-conception et d’amélioration continue de l’étape de production du cycle de vie d’un vêtement. Les travaux de recherche ont été conduits à l’échelle la plus fine du génie des procédés textiles, c’est-à-dire à l’échelle du procédé unitaire. Une illustration de cette méthode pour une étape spécifique de transformation du génie textile : de la fibre aux fils, aussi appelée filature a donc été opérée, incluant le calcul des incertitudes. Enfin, l’analyse des contributions aux résultats a mis en évidence des leviers d’éco-conception
The fashion and textile industry is a complex, highly fragmented, and globalized valuechain, requiring a wide range of professions with specific expertise, and a highly heterogeneous level ofknowledge regarding the sector's environmental burdens. Given that climate and environmental issueshave never been so high on the agenda, scientific literature has been growing in recent years to assessthe environmental and human health impacts of this sector, which has been identified as the fourth mostpolluting industry in Europe, all impact categories combined. The eco-design of products is today acentral approach to achieve the sector's impact reduction targets. The challenge today is to extend itsuse to as many players as possible.The main aim of this research was to develop a method for generating textile Life Cycle Inventory(LCI) data, in order to promote eco-design and continuous improvement in the production stage of agarment's life cycle. The research work was carried out at the finest scale of textile process engineering,i.e. at the unit process scale. An illustration of this method for a specific transformation stage in textileengineering: from fiber to yarn, also known as spinning, was therefore carried out, including thecalculation of uncertainties. Finally, the analysis of the contributions to the results highlighted eco-design leverages
13

Bertrand, Christian. "Ateliers de génie logiciel : études, modèles de bases de données, contribution du modèle entité-association au cycle de vie du logiciel". Mulhouse, 1989. http://www.theses.fr/1989MULH0115.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
La mise en oeuvre d'ateliers de génie logiciel, permettant le développement moins artisanal, mais plus industriel de logiciels, est discutée. L'outil fondamental pour les ateliers de génie logiciel est la base de données. Le modèle entité-relation est retenu. Une configuration d'une association binaire est proposée avec des règles de description afin d'organiser la structure des attributs. Un schéma bloc entité-relation est construit à l'aide d'entités et de relations qui se regroupent en cinq classes de vue. Le modèle est ensuite appliqué à un environnement de développement de logiciels
14

Le, Van-Thao. "Proposition d'une stratégie soutenable pour donner une nouvelle vie à une pièce en s’appuyant sur les techniques de fabrication additive". Thesis, Université Grenoble Alpes (ComUE), 2017. http://www.theses.fr/2017GREAI038/document.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Actuellement, les matériaux collectés à partir de produits en fin de vie sont recyclés en matière première pour être réutilisés dans un nouveau cycle de production. Cependant, la consommation énergétique des filières de recyclage reste importante. Le processus du recyclage fait aussi perdre la valeur ajoutée et l’énergie utilisée durant la fabrication de pièces originales. Aujourd’hui, les techniques de fabrication additive sont suffisamment performantes et permettent une fabrication de produits avec un matériau compatible avec l’usage. La prise en compte des performances de ces nouvelles techniques dans une stratégie soutenable peut ouvrir des pistes pour modifier les pièces et les réutiliser directement sans retourner au niveau de matière première. Cette thèse a pour objectif de développer une stratégie soutenable, qui permet de donner une nouvelle vie à une pièce en fin de vie (ou une pièce existante) en la transformant directement en une nouvelle pièce destinée à un autre produit. Afin de développer une telle stratégie, les travaux menés de la thèse visent à résoudre les verrous scientifiques suivants :Le premier verrou scientifique est lié à la faisabilité technologique : est-il possible de déposer de la matière sur une pièce existante en utilisant les techniques de fabrication additive pour obtenir la nouvelle pièce avec une bonne santé de matière ? Cette question a été résolue en réalisant une étude expérimentale sur l’observation de microstructures et de propriétés mécaniques des éprouvettes, qui sont fabriquées par ajout de nouvelles entités sur une pièce existante en EBM. Le deuxième verrou scientifique est lié à l’étude de la chaîne complète de fabrication d’un point de vue technologique. Comment concevoir des gammes de fabrication en combinant intelligemment des opérations additives et soustractives pour obtenir la pièce attendue à partir de la pièce existante ? Une méthode de conception des gammes de fabrication combinant les procédés additifs et soustractifs a été proposée en s’appuyant sur le concept d’entités de fabrication additive et soustractive. Le troisième verrou scientifique est lié à la soutenabilité et la stratégie présente-t-elle des avantages par rapport à la stratégie conventionnelle en termes de soutenabilité ? Une approche s’appuyant sur la méthode d’Analyse du Cycle de Vie (ACV) a aussi été développée pour évaluer des impacts environnementaux. Des critères permettant de qualifier le domaine de la stratégie proposée vis-à-vis de la stratégie conventionnelle ont été identifiés
Currently, materials collected from end-of-life (EoL) products are recycled into raw material for reusing in a new production cycle. However, energy consumptions of recycling sectors remain important. The added values and energy used in the manufacture of original parts are also lost during the material recycling process. Nowadays, additive manufacturing techniques are sufficiently efficient and allow the manufacture of products with a material compatible with the use. Taking into account the performances of these techniques in a sustainable strategy can open the ways to modify parts and reuse them directly without returning to the raw material level. This thesis aims to develop a sustainable strategy, which allows giving a new life to an EoL part (or an existing part) by transforming it directly into a new part intended for another product. In order to develop such a strategy, the works of the thesis aims to solve the following scientific issues : the first scientific issue is related to the technological feasibility : is it possible to deposit material on an existing part using additive manufacturing technologies to obtain the new part with good material health ? This question is solved by carrying out an experimental study on the observation of microstructures and mechanical properties of the samples, which are manufactured by adding new features into an existing part in EBM. The second scientific issue is related to the study of the complete manufacturing chain from a technological point of view. How to design the process planning for additive and subtractive manufacturing combination to manufacture the expected part from the existing part ? To solve this question, a methodology to design the process planning for combining these manufacturing processes has been proposed based on the concept of additive manufacturing and machining features.The third scientific issue is linked to the sustainability and does the new strategy have advantages in comparison to the conventional strategy in terms of sustainability ? An approach based on the Life Cycle Assessment (LCA) method has also been developed to assess environmental impacts. The criteria for qualifying the domain of the proposed strategy vis-a-vis the conventional strategy were also identified
15

Bertin, Ingrid. "Conception des bâtiments assurant leur réversibilité, leur déconstruction et leur réemploi, méthodologie de suivi et évaluation environnementale sur les cycles de vie". Thesis, Paris Est, 2020. http://www.theses.fr/2020PESC1041.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Dans un contexte de pression environnementale intense où le secteur de la construction dans le monde a le plus grand impact sur plusieurs indicateurs, le réemploi des éléments porteurs est le plus prometteur pour éviter significativement la production de déchets, préserver les ressources naturelles et réduire les émissions de gaz à effet de serre par la diminution de l'énergie grise. Cette thèse porte donc sur trois principaux axes de recherches : 1. l’amélioration de la conception structurale par des typologies favorables en définissant le DfReu (Design for Reuse) afin d’anticiper la mise en œuvre d’éléments porteurs (verticaux et horizontaux) démontables et réemployables en fin de vie, d’allonger leur durée de vie, in fine en augmentant le stock d’éléments disponibles au réemploi 2. le développement d’une méthodologie pour la mise en place d’une traçabilité renforcée et pérenne autour d’une banque de matériaux et du BIM afin de disposer de toutes les caractéristiques, notamment physico-mécaniques, des éléments porteurs et de faciliter les processus de réemploi et l’engagement d’une nouvelle responsabilité pour l’ingénieur réemployeur 3. L’identification des paramètres clés influençant les impacts environnementaux propres au réemploi et le développement d’analyses de sensibilité, permettant une meilleure compréhension des conséquences de ce processus et de sa prise en compte lors de la conception, appuyant l’aide à la décision. Une expérimentation fondée sur des portiques démonstrateurs en béton armé a permis de corroborer ces trois axes en générant des données manquantes dans la littérature. Cette analyse pratique de l’assemblage poteau-poutre a produit des données techniques sur le comportement structural après réemploi, mais aussi des données environnementales de mise en œuvre et déconstruction. Ce travail propose alors une méthodologie fondée sur une chaîne d'outils pour permettre aux ingénieurs de concevoir des assemblages réversibles au sein d’une structure réemployable, de pérenniser les informations nécessaires dans la maquette BIM doublées d’une traçabilité physique, de mettre en place une banque de matériaux et d’optimiser la conception à partir d’un stock d’éléments porteurs. L’étude distingue ainsi la "conception avec un stock" qui vise à intégrer le plus grand nombre possible d'éléments disponibles, de la "conception à partir d'un stock" qui conduit au réemploi de 100% des éléments et propose ainsi un nouveau paradigme pour le concepteur. Parallèlement, les impacts environnementaux du processus de réemploi sont étudiés à partir d’une analyse du cycle de vie (ACV). Une analyse de sensibilité déclinant, entre autres, le nombre d’usages et la durée de vie, en comparaison de constructions neuves équivalentes, permet de mieux appréhender les domaines d'intérêt du DfReu. La prise en compte de critères spécifiques à l’économie circulaire dans le bâtiment complète la définition des critères de réemployabilité. L’étude environnementale montre finalement dans quelles conditions le réemploi diminue l’impact d’un bâtiment, et identifie les paramètres clés. Les résultats obtenus s’adressent en premier lieu aux ingénieurs structure mais plus largement aux concepteurs membres de la maîtrise d’œuvre : architectes, ingénieurs et bureaux d’études spécialisés en environnement, afin de proposer et d’inciter l’étude de variantes anticipant la réemployabilité des bâtiments nouvellement conçus. Les résultats sont, par extension, également exploitables dans les projets intervenant sur l’existant
In a context of strong environmental pressure in which the construction sector has the greatestimpact, the reuse of the load-bearing elements is the most promising as it significantly avoidswaste production, preserves natural resources and reduces greenhouse gas emissions by cuttingdown on embodied energy.This thesis consequently covers three main areas of research:1. Improvement of structural design through expedient typologies by defining the DfReu(Design for Reuse) in order to anticipate the use of load-bearing elements (vertical andhorizontal), that can be dismantled and reused at the end of their service life to extendtheir lifespan, ultimately increasing the stock of available elements for reuse.2. Development of a methodology for the implementation of a reinforced and long-lastingtraceability centered on a materials bank with the use of BIM in order to secure all thecharacteristics, in particular physico-mechanical, of the load-bearing elements and tofacilitate the reuse processes as well as the commitment of a new responsibility for thereuse engineer.3. Identification of the key parameters influencing the environmental impacts of reuse anddevelopment of sensitivity study, allowing a better comprehension of the consequencesof this process and its consideration in design to support to decision making.An experiment based on reinforced concrete demonstration portals frames has enabledcorroboration of these three lines of research by generating missing data in literature. Thispractical analysis of column-beam assembly has generated technical data on the structuralbehavior after reuse, but also environmental data for implementation and deconstruction.This research offers subsequently a methodology based on a chain of tools to enable engineersto design reversible construction assemblies within a reusable structure, to secure the necessaryinformation in the BIM model coupled with physical traceability, to build a bank of materials andto enhance design through a stock of load-bearing elements. The study thus distinguishes"design with a stock" which aims to combine as many available elements as possible, from"design from a stock" which leads to the reuse of 100% of the elements and thus presents a newparadigm for the designer.At the same time, the environmental impacts of the reuse process are studied using a life cycleassessment (LCA). A sensitivity study, based among other things on the number of uses and thelifespan, in comparison to equivalent new constructions, provides a better understanding of theareas of interest of the DfReu. Consideration of criteria specific to the circular economy inbuildings completes the definition of reuse criteria. In the end, environmental studies establishunder which conditions reuse reduces the impact of a building and identify the key parameters.The results obtained are primarily intended for structural engineers but more broadly fordesigners part of the project management: architects, engineers and environmental designoffices, in order to offer and encourage the study of variants anticipating the reusability of newlydesigned buildings. By extension, the results can also be used in projects involving existingbuildings
16

Moalla, Néjib. "Amélioration de la qualité des données du produit dans le contexte du cycle de vie d’un vaccin : une approche d’interopérabilité dirigée par les modèles". Lyon 2, 2007. http://theses.univ-lyon2.fr/sdx/theses/lyon2/2007/moalla_n.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Dans la quête de l'excellence industrielle, la qualité des données est un des piliers essentiels à prendre en considération dans toute approche d'amélioration ou d'optimisation. Ainsi, la qualité des données est un besoin primordial pour s'assurer que le produit répond aux besoins du client. Dans l'industrie pharmaceutique et plus particulièrement, dans l'industrie des vaccins, la définition du produit est très complexe vu sa structure moléculaire. La qualité des données s'avère une priorité face à la multitude des définitions du produit (biologique, pharmaceutique, industrielle, etc. ) et surtout face à l'ensemble des restrictions et des recommandations réglementaires imposées par les autorités de santés clientes. Dans ce contexte, et devant la multitude des métiers et des systèmes d'information supports, le besoin d'assurer l'interopérabilité entre ces systèmes hétérogènes permettra de prendre en considération les spécifications des différents métiers lors des échanges de données. Le déploiement d'une architecture dirigée par les modèles permettra de transformer une description fonctionnelle des différents processus vers des modèles de données exprimés dans différentes plateformes. Dans le périmètre logistique de l'industrie des vaccins, nous nous intéressons à assurer la qualité de quelques données critiques dans notre ERP par le déploiement des concepts d'nteropérabilité dirigée par les modèles. La définition de niveaux de référentiels nous permettra de structurer les modèles ainsi générés pour les partager avec l'ensemble des acteurs de notre périmètre logistique. A long terme, notre approche vise à réduire le coût du produit
To reach the industrial excellence, data quality is one of the essential pillars to handle in any improvement or optimization approach. Thus, data quality is a paramount need to ensure that the product meets the customer requirements. In the drug company and more particularly, in the vaccine industry, the definition of vaccine product is very complex considering its molecular structure. Data quality proves to be a priority according to many product definitions (biological, pharmaceutical, industrial, etc) and especially face to a lot of restrictions and regulatory recommendations imposed by customers as health authorities. In this context, and in front of the multitude of business activities supported by disconnected information systems, the need to ensure interoperability between these heterogeneous systems will make it possible to handle the specifications of various business scope during the exchanges of information. The deployment of model driven architecture will enable to transform a functional description of processes towards data models expressed in various platforms. In the logistic perimeter of the vaccines industry, we are interested to ensure the quality of some critical data in our ERP by the deployment of the concepts of model driven interoperability. The definition of various levels of reference frames will enable us to structure the models thus generated to share them with logistic perimeter actors. In the long run, our approach aims at reducing the cost of the product
17

Mathon, Vincent. "Etude climatologique des systèmes convectifs de meso-échelle en Afrique de l'Ouest". Paris 7, 2001. http://www.theses.fr/2001PA077099.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
18

Prinçaud, Marion. "Développement d'un outil d'aide à la décision environnementale basé sur l'analyse de cycle de vie intégré au processus de conception". Phd thesis, Paris, ENSAM, 2011. http://pastel.archives-ouvertes.fr/pastel-00589315.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
L'éco-conception est aujourd'hui une démarche qui interpelle de plus en plus le monde industriel. C'est l'un des meilleurs moyens pour prendre en compte les impacts d'un produit sur l'environnement, i.e. les évaluer et les améliorer. Or intégrer l'éco-conception dans un processus de conception et pouvoir en faire dès l'avant-projet, s'avère extrêmement difficile lorsque les produits sont très complexes car soumis à de nombreuses contraintes (réglementaires, techniques, technologiques,...). C'est à cette problématique qu'ont été confrontés les concepteurs de DCNS, constructeur naval, et à laquelle, par le biais de cette thèse, nous avons essayé de répondre. En créant des briques de données, basées sur le modèle de briques technologiques auxquelles sont ajoutées les informations nécessaires à une évaluation environnementale, il devient possible d'intégrer le paramètre environnemental dans le processus de conception, en tant qu'outil d'aide à la décision. La méthodologie proposée permet alors s'affranchir des habituels points faibles d'une démarche d'évaluation environnementale (l'accès aux bases de données) et d'amélioration environnementale (le manque de connaissances métiers spécifiques aux produits). Ainsi, un outil d'éco-conception " complet ", l'OCEAN, basé sur l'ACV et dédié aux navires a été développé sur ce principe.
19

Pham, Cong Cuong. "Multi-utilisation de données complexes et hétérogènes : application au domaine du PLM pour l’imagerie biomédicale". Thesis, Compiègne, 2017. http://www.theses.fr/2017COMP2365/document.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
L’émergence des technologies de l’information et de la communication (TIC) au début des années 1990, notamment internet, a permis de produire facilement des données et de les diffuser au reste du monde. L’essor des bases de données, le développement des outils applicatifs et la réduction des coûts de stockage ont conduit à l’augmentation quasi exponentielle des quantités de données au sein de l’entreprise. Plus les données sont volumineuses, plus la quantité d’interrelations entre données augmente. Le grand nombre de corrélations (visibles ou cachées) entre données rend les données plus entrelacées et complexes. Les données sont aussi plus hétérogènes, car elles peuvent venir de plusieurs sources et exister dans de nombreux formats (texte, image, audio, vidéo, etc.) ou à différents degrés de structuration (structurées, semi-structurées, non-structurées). Les systèmes d’information des entreprises actuelles contiennent des données qui sont plus massives, complexes et hétérogènes. L’augmentation de la complexité, la globalisation et le travail collaboratif font qu’un projet industriel (conception de produit) demande la participation et la collaboration d’acteurs qui viennent de plusieurs domaines et de lieux de travail. Afin d’assurer la qualité des données, d’éviter les redondances et les dysfonctionnements des flux de données, tous les acteurs doivent travailler sur un référentiel commun partagé. Dans cet environnement de multi-utilisation de données, chaque utilisateur introduit son propre point de vue quand il ajoute de nouvelles données et informations techniques. Les données peuvent soit avoir des dénominations différentes, soit ne pas avoir des provenances vérifiables. Par conséquent, ces données sont difficilement interprétées et accessibles aux autres acteurs. Elles restent inexploitées ou non exploitées au maximum afin de pouvoir les partager et/ou les réutiliser. L’accès aux données (ou la recherche de données), par définition est le processus d’extraction des informations à partir d’une base de données en utilisant des requêtes, pour répondre à une question spécifique. L’extraction des informations est une fonction indispensable pour tout système d’information. Cependant, cette dernière n’est jamais facile car elle représente toujours un goulot majeur d’étranglement pour toutes les organisations (Soylu et al. 2013). Dans l’environnement de données complexes, hétérogènes et de multi-utilisation de données, fournir à tous les utilisateurs un accès facile et simple aux données devient plus difficile pour deux raisons : - Le manque de compétences techniques. Pour formuler informatiquement une requête complexe (les requêtes conjonctives), l’utilisateur doit connaitre la structuration de données, c’est-à-dire la façon dont les données sont organisées et stockées dans la base de données. Quand les données sont volumineuses et complexes, ce n’est pas facile d’avoir une compréhension approfondie sur toutes les dépendances et interrelations entre données, même pour les techniciens du système d’information. De plus, cette compréhension n’est pas forcément liée au savoir et savoir-faire du domaine et il est donc, très rare que les utilisateurs finaux possèdent les compétences suffisantes. - Différents points de vue des utilisateurs. Dans l’environnement de multi-utilisation de données, chaque utilisateur introduit son propre point de vue quand il ajoute des nouvelles données et informations techniques. Les données peuvent être nommées de manières très différentes et les provenances de données ne sont pas suffisamment fournies
The emergence of Information and Comunication Technologies (ICT) in the early 1990s, especially the Internet, made it easy to produce data and disseminate it to the rest of the world. The strength of new Database Management System (DBMS) and the reduction of storage costs have led to an exponential increase of volume data within entreprise information system. The large number of correlations (visible or hidden) between data makes them more intertwined and complex. The data are also heterogeneous, as they can come from many sources and exist in many formats (text, image, audio, video, etc.) or at different levels of structuring (structured, semi-structured, unstructured). All companies now have to face with data sources that are more and more massive, complex and heterogeneous.technical information. The data may either have different denominations or may not have verifiable provenances. Consequently, these data are difficult to interpret and accessible by other actors. They remain unexploited or not maximally exploited for the purpose of sharing and reuse. Data access (or data querying), by definition, is the process of extracting information from a database using queries to answer a specific question. Extracting information is an indispensable function for any information system. However, the latter is never easy but it always represents a major bottleneck for all organizations (Soylu et al. 2013). In the environment of multiuse of complex and heterogeneous, providing all users with easy and simple access to data becomes more difficult for two reasons : - Lack of technical skills : In order to correctly formulate a query a user must know the structure of data, ie how the data is organized and stored in the database. When data is large and complex, it is not easy to have a thorough understanding of all the dependencies and interrelationships between data, even for information system technicians. Moreover, this understanding is not necessarily linked to the domain competences and it is therefore very rare that end users have sufficient theses such skills. - Different user perspectives : In the multi-use environment, each user introduces their own point of view when adding new data and technical information. Data can be namedin very different ways and data provenances are not sufficiently recorded. Consequently, they become difficultly interpretable and accessible by other actors since they do not have sufficient understanding of data semantics. The thesis work presented in this manuscript aims to improve the multi-use of complex and heterogeneous data by expert usiness actors by providing them with a semantic and visual access to the data. We find that, although the initial design of the databases has taken into account the logic of the domain (using the entity-association model for example), it is common practice to modify this design in order to adapt specific techniques needs. As a result, the final design is often a form that diverges from the original conceptual structure and there is a clear distinction between the technical knowledge needed to extract data and the knowledge that the expert actors have to interpret, process and produce data (Soylu et al. 2013). Based on bibliographical studies about data management tools, knowledge representation, visualization techniques and Semantic Web technologies (Berners-Lee et al. 2001), etc., in order to provide an easy data access to different expert actors, we propose to use a comprehensive and declarative representation of the data that is semantic, conceptual and integrates domain knowledge closeed to expert actors
20

Verriez, Quentin. "Rationaliser les pratiques numériques en archéologie : l'exemple des chantiers de fouilles de Bibracte". Electronic Thesis or Diss., Bourgogne Franche-Comté, 2023. http://www.theses.fr/2023UBFCH035.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Cette thèse explore la transition vers une archéologie numérique et ouverte. Elle se penche sur la faisabilité d'une fouille archéologique basée sur des logiciels libres, produisant des données transparentes, structurées et aux formats ouverts. Ces vingt dernières années correspondent en effet à une intensification majeure des usages de technologies numériques en archéologie, impactant la collecte, le traitement, la gestion, la conservation et la diffusion des données. L'approche de la science ouverte offre alors les solutions pour contrôler, exploiter et assurer la conservation de ces nouvelles données. Prenant pour cadre d'expérimentation quatre années de fouilles sur l'oppidum de Bibracte, ce travail examine ainsi les défis d'aligner la production de données sur les principes de la science ouverte, dès la phase de terrain. Il cherche également à sortir des considérations techniques pour éclairer les effets de l'archéologie numérique sur l'utilisateur et son environnement. Ce projet souhaite ainsi contribuer à la modernisation des méthodes archéologiques, en développant des pratiques numériques qui prennent en considération les objectifs des archéologues sur le terrain, en plus d'inscrire leur démarche dans un processus de maîtrise, de partage et de pérennisation de la connaissance archéologique
The thesis examines the move to open, digital archaeology. It investigates the feasibility of free software-based archaeological excavations producing transparent, structured data in open formats. Over the past two decades, the integration of digital technologies in the field of archaeology has increased considerably, affecting the collection, processing, management, preservation and dissemination of data. The open science approach offers solutions for the management, use and protection of this new type of data. This study uses a four-year excavation of the Bibracte Oppidum as a framework to test how open science principles can guide data production during fieldwork. Moreover, it aims to offer insights into the impacts of digital archaeology on its users and surroundings beyond technical concerns. The project aims to modernise archaeological methods by developing digital practices that consider fieldworkers' objectives and integrate their approach into a process of mastering, sharing and preserving archaeological knowledge
21

Lifran, Robert. "La contrainte de liquidité et l'accumulation du patrimoine professionnel dans une perspective de cycle de vie : modèles et tests empiriques sur les données du RICA (réseau d'information comptable agricole)". Montpellier 1, 1992. http://www.theses.fr/1992MON10044.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Le but de ce travail est l'elaboration d'un modele de cycle de vie dans lequel les ressources viageres de l'agent economique dependent des decisions d'epargne, et d'investissement. La fonction d'objectif est l'utilite escomptee sur le cycle de vie. Apres avoir defini, dans le cas determine, les types de contraintes de liquidite rencontrees, on etablit l'equation d'euler qui definit le taux de croissance de la consommation. On absorbe le cas du modele avec ressources incertaines. L'hypothese de separabilite entre l'epargne et l'investissement permet de determiner la condition d'optimalite de l'endettement de l'entreprise. Elle revient a une neutralisation de l'effet de levier financier, et permet la maximisation des ressources disponibles de la periode suivante. Dans une derniere partie, on teste l'existence d'un contrainte de financement, dans le cas d'un panel d'exploitations agricoles du rica. L'estimation d'une equation d'endettement, par classe d'age, met en evidence l'heterogeneite des jeunes agriculteurs, face a la contrainte
The aim of the work is to build an life model for self employed, with endogeneous income. First, we define the type of constraints facing an selfemployed who is willing to maximize his dicounted life time utility. Second, assuming a separability between saving and borrowing for the firm, we derive a optimality condition for the firm debt from a equation which maximize ressources (disposable income and equity) of the next period. Third, we demonstrate that the euler equation is the same as the case of exogenous income, but the level of initial consumption is different. If the borrowing decision, is exogenously constrained, the rate of growth of consumption will be lower, and depends on the technology and the initial equity. We test a model for optimal debt of farmers on panel data fraom the rica. The heterogeneity of farmers facing a borrowing constraint is studied estimating a borrowing equation by age groups
22

Kone, Joël-Louis. "Modélisation et suivi du vieillissement d’accumulateurs Li-ions par couplage avec modèle Dual-tank". Thesis, Université Grenoble Alpes, 2021. http://www.theses.fr/2021GRALI003.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Les modèles de batterie utilisés dans les études systèmes sont généralement basés sur des modèles électriques à un seul réservoir (« one tank »), auxquels sont couplés des modèles de vieillissement semi-empiriques prédisant l’évolution de la capacité de ce réservoir.Dans ces modèles, l’état de santé d’une cellule est donc représenté par une seule valeur, ce qui est trop limitant. Par ailleurs, ces approches permettent difficilement d’appréhender les phénomènes de ruptures de pentes observés expérimentalement.Dans cette thèse, des modèles de vieillissement empiriques ou inspirés de la physique sont couplés à un modèle électrique à deux électrodes. La première approche empirique vise à prédire directement l’évolution de l’état de chaque électrode et du décalage entre électrodes. La deuxième, inspirée de la physique, introduit la notion de courant parasite à l’origine de la perte de lithium cyclable.Ces différentes approches sont mises en œuvre avec la base de résultats expérimentaux calendaires du projet MOBICUS
The battery models used in system studies are generally based on electrical models with a single tank ("one tank model"), to which are coupled semi-empirical aging models predicting the evolution of the capacity of this one tank model.In these models, the state-of-health of a cell is therefore represented by a single value, which is too limiting. Moreover, these approaches make it difficult to understand the phenomena of capacity slope failures observed experimentally.In this thesis, empirical or physics-based aging models are coupled to a dual tank model. The first empirical approach aims to directly predict the evolution of the capacity of each electrode and the offset between electrode potential signals. The second, inspired by the physical phenoma that can occur within the battery, introduces the notion of parasitic current at the origin of the loss of cycling lithium.These different approaches are implemented using experimental calendar results from the MOBICUS project
23

Hernane, Soumeya-Leila. "Modèles et algorithmes de partage de données cohérents pour le calcul parallèle distribué à haut débit". Thesis, Université de Lorraine, 2013. http://www.theses.fr/2013LORR0042/document.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Data Handover est une librairie de fonctions adaptée aux systèmes distribués à grande échelle. Dho offre des routines qui permettent d'acquérir des ressources en lecture ou en écriture de façon cohérente et transparente pour l'utilisateur. Nous avons modélisé le cycle de vie de Dho par un automate d'état fini puis, constaté expérimentalement, que notre approche produit un recouvrement entre le calcul de l'application et le contrôle de la donnée. Les expériences ont été menées en mode simulé en utilisant la libraire GRAS de SimGrid puis, en exploitant un environnement réel sur la plate-forme Grid'5000. Par la théorie des files d'attente, la stabilité du modèle a été démontrée dans un contexte centralisé. L'algorithme distribué d'exclusion mutuelle de Naimi et Tréhel a été enrichi pour offrir les fonctionnalités suivantes: (1) Permettre la connexion et la déconnexion des processus (ADEMLE), (2) admettre les locks partagés (AEMLEP) et enfin (3) associer les deux propriétés dans un algorithme récapitulatif (ADEMLEP). Les propriétés de sûreté et de vivacité ont été démontrées théoriquement. Le système peer-to-peer proposé combine nos algorithmes étendus et le modèle originel Dho. Les gestionnaires de verrou et de ressource opèrent et interagissent mutuellement dans une architecture à trois niveaux. Suite à l'étude expérimentale du système sous-jacent menée sur Grid'5000, et des résultats obtenus, nous avons démontré la performance et la stabilité du modèle Dho face à une multitude de paramètres
Data Handover is a library of functions adapted to large-scale distributed systems. It provides routines that allow acquiring resources in reading or writing in the ways that are coherent and transparent for users. We modelled the life cycle of Dho by a finite state automaton and through experiments; we have found that our approach produced an overlap between the calculation of the application and the control of the data. These experiments were conducted both in simulated mode and in real environment (Grid'5000). We exploited the GRAS library of the SimGrid toolkit. Several clients try to access the resource concurrently according the client-server paradigm. By the theory of queues, the stability of the model was demonstrated in a centralized environment. We improved, the distributed algorithm for mutual exclusion (of Naimi and Trehel), by introducing following features: (1) Allowing the mobility of processes (ADEMLE), (2) introducing shared locks (AEMLEP) and finally (3) merging both properties cited above into an algorithm summarising (ADEMLEP). We proved the properties, safety and liveliness, theoretically for all extended algorithms. The proposed peer-to-peer system combines our extended algorithms and original Data Handover model. Lock and resource managers operate and interact each other in an architecture based on three levels. Following the experimental study of the underlying system on Grid'5000, and the results obtained, we have proved the performance and stability of the model Dho over a multitude of parameters
24

Leroy, Yann. "Développement d'une méthodologie de fiabilisation des prises de décisions environnementales dans le cadre d'analyses de cycle de vie basée sur l'analyse et la gestion des incertitudes sur les données d'inventaires". Phd thesis, Paris, ENSAM, 2009. http://pastel.archives-ouvertes.fr/pastel-00005830.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
L'Analyse de Cycle de Vie (ACV) est aujourd'hui définie comme une approche aboutie et reconnue d'évaluation de la performance environnementale des produits, procédés et services. Cependant et malgré la standardisation dont elle a fait l'objet dans les années 1990, certaines limites subsistent et contribuent à fragiliser la fiabilité de ses résultats. La non-prise en compte quasi systématique des incertitudes et de la qualité des données d'inventaire, et son caractère consommateur de ressources en font partie. Ces carences mettent en avant la nécessité de développer une méthodologie de gestion de ces deux paramètres. C'est dans ce contexte que s'inscrivent les travaux de recherche. Nous proposons donc une méthodologie de fiabilisation des décisions environnementales basées sur des ACV, à partir de l'analyse et la gestion des incertitudes sur les données d'inventaire. Cette dernière combine une approche qualitative s'appuyant sur l'utilisation d'une matrice de pedigree et une approche quantitative propageant l'incertitude sur les données d'entrée au moyen de simulations de Monte Carlo. La méthodologie développée nous permet d'une part d'estimer la qualité des inventaires et donc du résultat, et d'autre part d'identifier et de localiser les données les plus influentes sur cet indice de qualité. Cette analyse générée à partir d'informations relativement accessibles permet également une optimisation de la phase de collecte et des ressources allouées. Nous pouvons en effet juger de la pertinence d'une collecte additionnelle en intégrant le potentiel de dégradation d'une donnée sur le degré de fiabilité estimé du résultat. Les conclusions de notre recherche devraient contribuer à crédibiliser les résultats d'ACV et faciliter la mise en œuvre de telles analyses par la gestion raisonnée des efforts de collecte.
25

Hadji, Rezai Sara. "Méthode d’évaluation de l’impact des composants de construction sur la performance globale (énergétique & environnementale, économique et sociale) d’un bâtiment tout au long de son cycle de vie". Thesis, La Rochelle, 2017. http://www.theses.fr/2017LAROS014/document.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Aujourd’hui les attentes en terme de performance énergétique, environnementale, mais également économique et sociale, toujours de plus en plus élevées, rendent de plus en plus complexe l’acte de construire et compliquée la prise de décision en phase de conception. Aussi l’enjeu de demain est notamment d’accompagner les acteurs de la construction dans le choix de composants de construction les moins risqués et les plus appropriés pour un projet de construction donné. Cette thèse est née de la volonté de répondre à cet enjeu. Aussi, l’objectif de cette thèse a été de développer une méthode d’évaluation de l’impact de l’intégration d’un composant de construction sur la performance globale (énergétique, environnementale, économique et sociale) d’un bâtiment tout au long de son cycle de vie. L’appropriation de la culture du risque, son appréciation (identification, analyse et évaluation), ainsi que son management dans le domaine de la construction est un phénomène récent, encore principalement à l’état de recherche. Cependant d’autres domaines tels que le nucléaire, l’aéronautique ou la finance ont déjà acquis des connaissances, développé des outils, méthodes et techniques et mis en exergue des bonnes pratiques et des précautions à suivre. Ainsi nous avons choisi de nous appuyer sur cela pour développer notre méthode et notamment nous avons fait le choix d’utiliser la méthode classique de Cooke (1991) pour pondérer les jugements d’experts et s’assurer qu’ils soient les plus représentatifs de la réalité. La méthode proposée ici se décompose en trois étapes. La première est une étape préliminaire qui permet d’une part de définir les objectifs de performance à atteindre pour un bâtiment performant en construisant une famille d’indicateurs de performance et d’autre part de choisir entre les deux étapes suivantes. Soit le composant de construction est largement diffusé et le processus principal est mis en œuvre. Soit il est innovant et c’est le processus secondaire qui est mis en œuvre. In fine la méthode permet : 1) d’identifier les couples ‘aléa/risque’ associés au composant étudié (composant largement diffusé ou innovant) ; 2) de mettre en évidence, grâce à l’aide d’un jeu de poids pondérant les indicateurs de performance représentant la performance globale à atteindre pour un bâtiment donné : a) les indicateurs les plus sensibles au regard de ce composant (composant largement diffusé) b) l’impact de l’intégration du composant via les couples ‘aléa/risque’ recensés sur tout le cycle de vie du bâtiment à l’échelle du composant et à l’échelle du bâtiment (composant largement diffusé). Elle a été expérimentée sur deux composants de construction, l’un largement diffusé, l’autre innovant et cela a permis de mettre en exergue ses avantages, limites, perspectives et améliorations d’un point de vue théorique. Mais également d’identifier des bonnes pratiques, des risques et des apprentissages associés à sa mise en application. Sa force réside dans son déploiement à grande échelle. Plus elle sera mis en œuvre sur un grand nombre de composants de construction d’une même famille et plus elle apportera un intérêt dans l’aide à la conception grâce à la comparaison entre ces composants pour choisir le plus approprié et le moins risqué pour un projet de construction donné
Current expectations in terms of energy, environmental, economic and social performance, are increasingly higher, making more complex the act of building and complicating decision-making in the design phase. Therefore, tomorrow's challenge includes the support of construction stakeholders in the choice of the least risky and most appropriate construction components for a given construction project. This PhD was born of the desire to respond to this challenge. The objective being to develop a method for assessing the impact of the integration of a construction component on the overall performance (energy, environmental, economic and social) of a building throughout its life cycle. The appropriation of the risk culture, its assessment (identification, analysis and evaluation), and its management in the field of construction is a new phenomenon, still mainly in the state of research. However, other fields such as nuclear, aeronautics or finance have already acquired knowledge. Tools, methods and techniques were developed and highlighted good practices and precautions to be followed. This robust basis was used to develop our method and in particular, the classical method of Cooke (1991) was used to weigh the expert judgments in order to ensure a better representativeness of reality. The proposed method is composed of three steps. The first is a preliminary step that allows to define the objectives of performance to be achieved for an efficient building by building-up a family of performance indicators. It also allows to choose between the two next steps. Either the construction component is largely distributed and the main process is implemented, or it is innovative component and the secondary process is implemented. In fine the method enables : 1) to identify the 'hazard/risk' pairs associated with the component studied (largely distributed or innovative component) ; 2) to highlight, by weighting the performance indicators representing the overall performance to be achieved for a particular building : a) the most sensitive indicators regarding this component (largely distributed component) ; b) the impact of the integration of this component through the 'hazard/risk' pairs identified throughout the life cycle of the building at the component scale and at the building scale (largely distributed component). It was tested on two construction components, one largely distributed, the other innovative, which has highlighted the method advantages, limits, prospects and improvements from a theoretical point of view. But also to identify good practices, risks and learning associated with its implementation. Its strength lies in its large-scale deployment. The more it will be implemented on a large number of construction components of the same family, the more it will bring an interest in design assistance by comparing these components to choose the most appropriate and least risky for a given construction project
26

Tchana, De Tchana Yvan. "Proposition d’un jumeau numérique pour soutenir la gestion de l'exploitation d'une infrastructure linéaire". Thesis, Troyes, 2021. http://www.theses.fr/2021TROY0012.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
La croissance du numérique au sein l'industrie de la construction conduit au BIM (Building Information Modeling). Inspiré du bâtiment, le BIM est adopté plus tard sur des projets d’infrastructure linéaire. Ces projets nécessitent une maitrise de bout en bout de la chaîne d’information. Le PLM (Product Lifecycle Management) favorise cette continuité numérique dans l’industrie manufacturière. Des études expérimentent une utilisation complémentaire des approches BIM et PLM pour ce type de projet. Adaptant des méthodes développées pour la construction de bâtiments, ces études se limitent à l’élaboration de référentiels de données. Cela rend difficile la gestion de l’infrastructure dans sa phase d’usage, où la maquette numérique doit devenir un jumeau numérique. Ces travaux consistent à développer une stratégie pour la conception, la mise en œuvre et l’exploitation d’une infrastructure linéaire. Cible de la démarche, le jumeau numérique intégrera non seulement BIM et PLM, mais aussi toute autre source d’information qui resitue l’infrastructure dans son environnement. Agrégateur de données, il devrait permettre d’assurer la gestion du cycle de vie d’une infrastructure linéaire. Ce système est éprouvé sur une infrastructure linéaire particulière, un passage à niveau. La continuité numérique et la traçabilité des données sont des facteurs importants pour un tel ouvrage. Notre proposition permet de suivre l’évolution de la donnée, et de lier des données d’exploitation aux données de conception et de construction de l’infrastructure
The digital growth of the construction industry led to BIM (Building Information Modeling). Developed for buildings, BIM is later used on linear infrastructure projects. Such projects require end-to-end control of information. PLM (Product Lifecycle Management) supports digital continuity in the manufacturing industry. Studies evaluate the relevance of a complementary use of the BIM and PLM approaches for linear infrastructure projects. With an adaptation of methods used for building construction, those studies are mostly restricted to the implementation of data repositories. This makes it difficult to consider the infrastructure post-construction phase, where the 3D model is no longer a digital model, but a digital twin. This research work consists in developing a strategy for the design, the implementation and the operations and maintenance of a linear infrastructure. The digital twin of the infrastructure is the target of our approach. It will take into consideration not only BIM and PLM methodologies, but also any other data source positioning the infrastructure in its geographical environment. Data aggregator, our digital twin should make it possible to manage the lifecycle of a linear infrastructure. This system is tested on a specific linear infrastructure, a level crossing. Digital continuity and data traceability are important factors for those constructions. Through the digital twin, our proposal helps to follow the data, and thus to link operational data to the design and construction data of the linear infrastructure
27

Hernane, Soumeya-Leila. "Modèles et algorithmes de partage de données cohérents pour le calcul parallèle distribué à haut débit". Electronic Thesis or Diss., Université de Lorraine, 2013. http://www.theses.fr/2013LORR0042.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Data Handover est une librairie de fonctions adaptée aux systèmes distribués à grande échelle. Dho offre des routines qui permettent d'acquérir des ressources en lecture ou en écriture de façon cohérente et transparente pour l'utilisateur. Nous avons modélisé le cycle de vie de Dho par un automate d'état fini puis, constaté expérimentalement, que notre approche produit un recouvrement entre le calcul de l'application et le contrôle de la donnée. Les expériences ont été menées en mode simulé en utilisant la libraire GRAS de SimGrid puis, en exploitant un environnement réel sur la plate-forme Grid'5000. Par la théorie des files d'attente, la stabilité du modèle a été démontrée dans un contexte centralisé. L'algorithme distribué d'exclusion mutuelle de Naimi et Tréhel a été enrichi pour offrir les fonctionnalités suivantes: (1) Permettre la connexion et la déconnexion des processus (ADEMLE), (2) admettre les locks partagés (AEMLEP) et enfin (3) associer les deux propriétés dans un algorithme récapitulatif (ADEMLEP). Les propriétés de sûreté et de vivacité ont été démontrées théoriquement. Le système peer-to-peer proposé combine nos algorithmes étendus et le modèle originel Dho. Les gestionnaires de verrou et de ressource opèrent et interagissent mutuellement dans une architecture à trois niveaux. Suite à l'étude expérimentale du système sous-jacent menée sur Grid'5000, et des résultats obtenus, nous avons démontré la performance et la stabilité du modèle Dho face à une multitude de paramètres
Data Handover is a library of functions adapted to large-scale distributed systems. It provides routines that allow acquiring resources in reading or writing in the ways that are coherent and transparent for users. We modelled the life cycle of Dho by a finite state automaton and through experiments; we have found that our approach produced an overlap between the calculation of the application and the control of the data. These experiments were conducted both in simulated mode and in real environment (Grid'5000). We exploited the GRAS library of the SimGrid toolkit. Several clients try to access the resource concurrently according the client-server paradigm. By the theory of queues, the stability of the model was demonstrated in a centralized environment. We improved, the distributed algorithm for mutual exclusion (of Naimi and Trehel), by introducing following features: (1) Allowing the mobility of processes (ADEMLE), (2) introducing shared locks (AEMLEP) and finally (3) merging both properties cited above into an algorithm summarising (ADEMLEP). We proved the properties, safety and liveliness, theoretically for all extended algorithms. The proposed peer-to-peer system combines our extended algorithms and original Data Handover model. Lock and resource managers operate and interact each other in an architecture based on three levels. Following the experimental study of the underlying system on Grid'5000, and the results obtained, we have proved the performance and stability of the model Dho over a multitude of parameters
28

Shahzad, Muhammad Kashif. "Exploitation dynamique des données de production pour améliorer les méthodes DFM dans l'industrie Microélectronique". Phd thesis, Université de Grenoble, 2012. http://tel.archives-ouvertes.fr/tel-00771672.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
La " conception pour la fabrication " ou DFM (Design for Manufacturing) est une méthode maintenant classique pour assurer lors de la conception des produits simultanément la faisabilité, la qualité et le rendement de la production. Dans l'industrie microélectronique, le Design Rule Manual (DRM) a bien fonctionné jusqu'à la technologie 250nm avec la prise en compte des variations systématiques dans les règles et/ou des modèles basés sur l'analyse des causes profondes, mais au-delà de cette technologie, des limites ont été atteintes en raison de l'incapacité à sasir les corrélations entre variations spatiales. D'autre part, l'évolution rapide des produits et des technologies contraint à une mise à jour " dynamique " des DRM en fonction des améliorations trouvées dans les fabs. Dans ce contexte les contributions de thèse sont (i) une définition interdisciplinaire des AMDEC et analyse de risques pour contribuer aux défis du DFM dynamique, (ii) un modèle MAM (mapping and alignment model) de localisation spatiale pour les données de tests, (iii) un référentiel de données basé sur une ontologie ROMMII (referential ontology Meta model for information integration) pour effectuer le mapping entre des données hétérogènes issues de sources variées et (iv) un modèle SPM (spatial positioning model) qui vise à intégrer les facteurs spatiaux dans les méthodes DFM de la microélectronique, pour effectuer une analyse précise et la modélisation des variations spatiales basées sur l'exploitation dynamique des données de fabrication avec des volumétries importantes.
29

Kubler, Sylvain. "Premiers travaux relatifs au concept de matière communicante : Processus de dissémination des informations relatives au produit". Phd thesis, Université Henri Poincaré - Nancy I, 2012. http://tel.archives-ouvertes.fr/tel-00759600.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Depuis de nombreuses années, plusieurs communautés telles que IMS (Intelligent Manufacturing Systems), HMS (Holonic Manufacturing System) ont suggéré l'utilisation de produits intelligents pour rendre les systèmes adaptables et adaptatifs et ont montré les bénéfices pouvant être réalisés, tant au niveau économique, qu'au niveau de la traçabilité des produits, qu'au niveau du partage des informations ou encore de l'optimisation des procédés de fabrication. Cependant, un grand nombre de questions restent ouvertes comme la collecte des informations liées au produit, leur stockage à travers la chaîne logistique, ou encore la dissémination et la gestion de ces informations tout au long de leur cycle de vie. La contribution de cette thèse est la définition d'un cadre de dissémination des informations relatives au produit durant l'ensemble de son cycle de vie. Ce cadre de dissémination est associé à un nouveau paradigme qui change radicalement la manière de voir le produit et la matière. Ce nouveau concept consiste à donner la faculté au produit d'être intrinsèquement et intégralement communicant. Le cadre de dissémination des informations offre la possibilité à l'utilisateur d'embarquer des informations sensibles au contexte d'utilisation du produit communicant. Outre la définition du processus de dissémination des informations, cette thèse offre un aperçu des champs de recherche, tant scientifiques que technologiques, à investiguer par l'avenir concernant le concept de matière communicante.
30

Скворчевський, Олександр Євгенович. "Організація систем управління баз даних в логістичній підтримці життєвого циклу озброєння та військової техніки". Thesis, Луцький національний технічний університет, 2018. http://repository.kpi.kharkov.ua/handle/KhPI-Press/39152.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
31

Bicalho, Tereza. "Les limites de l'ACV. Etude de la soutenabilité d'un biodiesel issu de l'huile de palme brésilienne". Phd thesis, Université Paris Dauphine - Paris IX, 2013. http://tel.archives-ouvertes.fr/tel-01002055.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
L'analyse de cycle de vie (ACV), telle qu'elle est pratiquée aujourd'hui, peut conduire à des résultats biaisés. L'utilisation de cet outil s'avère particulièrement sensible dans des cadres réglementaires. En effet, au lieu d'inciter les entreprises à réduire leurs impacts sur l'environnement, les certifications obtenues à partir des ACV risquent de produire un effet contraire : comme elles tendent à récompenser des moyennes industrielles plutôt que les résultats propres aux entreprises, elles peuvent détruire toute incitation pour ces dernières à agir correctement sur le plan environnemental. Dans cette thèse nous proposons des éléments de réflexion en matière de gestion pouvant être utiles à l'évolution de l'ACV à partir d'une étude de cas sur l'évaluation de la soutenabilité d'une filière biodiesel issu d'huile de palme brésilienne dans le cadre de la Directive EnR. Trois principaux résultats émergent de ce travail doctoral. Le premier se rapporte à la réflexion que nous menons sur l'évaluation de la durabilité imposée par la Directive EnR. Le deuxième renvoie aux réponses concrètes sur l'évaluation de la filière biodiesel évaluée à l'égard de la Directive, notamment par rapport aux émissions de gaz à effet de serre. Le troisième résultat concerne l'identification des besoins latents en matière d'évaluation de qualité des données d'ACV
32

Zina, Souheil. "Proposition d’un cadre de modélisation pour les applications PLM : application à la gestion de configurations". Thesis, Nancy 1, 2007. http://www.theses.fr/2007NAN10138/document.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
La maîtrise de l'information technique se situe au centre des préoccupations actuelles des entreprises. Les réglementations de plus en plus contraignantes et la concurrence forte demandent une rigueur et une réactivité accrue pour répondre aux demandes des clients. L'amélioration de la qualité des produits et la réduction des cycles et des coûts passent par la mise en oeuvre de règles et de moyens de gestion des données techniques tout au long de leur cycle de vie. Cependant, la mise en place d'une solution de gestion du cycle de vie de produit (PLM ou Product Lifecycle Management) reste un exercice difficile. En effet, les problématiques auxquelles les éditeurs et les intégrateurs des applications PLM doivent faire face proviennent du caractère spécifique inhérent aux projets clients, même si la plupart des besoins fonctionnels sont souvent génériques. La complexité croissante des données et le besoin de systèmes évolutifs et flexibles imposent aux éditeurs des applications PLM de capitaliser les connaissances liées à l'ingénierie de leurs produits. Le but de ce travail de recherche consiste à définir un cadre de modélisation et des méthodes de déploiement qui permettent à l'intégrateur de spécifier, concevoir, réaliser et faire évoluer rapidement les applications PLM en prenant en compte les spécificités des clients. L’étude effectuée chez LASCOM sur le progiciel Advitium a consisté, à partir d'un ensemble d'applications PLM existantes, à mettre en place une démarche de « Reverse Engineering » qui a permis de formaliser les concepts nécessaires à la gestion des données techniques, et les spécificités liées à la gestion de configurations de produits
Monitoring the technical information is one of the main preoccupations of the companies. Indeed, the increasingly constraining regulations and the higher competition level require being more rigorous and reactive to the customers’ requests. The product quality improvement and the reduction of costs and of cycles require applying rules and means of technical data management. However, the installation of a PLM (Product Lifecycle Management) solution remains a difficult exercise in order to take into account the complexity and the diversity of the customer requirements. The issues faced by both editors and integrators of PLM applications arise from the specific aspect of customers’ projects, even though most functional needs are often generic. The increasing data complexity and the need for flexible and scalable systems require PLM applications editors to capitalize knowledge related to their products engineering and to rationalize the working methods of design and development teams. This research work is interested in defining a modeling framework and deployment methods to help the integrator to specify, design, implement and make PLM applications evolve quickly by taking into account the customers’ specificities. The study carried out at LASCOM on the Advitium software package, consisted in setting a step of reverse engineering which made it possible to formalize the concepts needed for technical data management, and the specifics related to the product configuration management. This fundamental stage made possible to validate the handled concepts
33

Hernane, Soumeya. "Modèles et algorithmes de partage de données cohérents pour le calcul parallèle et distribué à haut débit". Phd thesis, Université de Lorraine, 2013. http://tel.archives-ouvertes.fr/tel-00919272.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Data Handover, Dho est une librairie de fonctions adaptée aux systèmes distribués à grande échelle. Dho offre des routines qui permettent d'acquérir des ressources en lecture ou en écriture de façon cohérente et transparente pour l'utilisateur. Nous avons modélisé le cycle de vie de Dho par un automate d'état fini puis, constaté expérimentalement, que notre approche produit un recouvrement entre le calcul de l'application et le contrôle de la donnée. Les expériences ont été menées en mode simulé en utilisant la libraire GRAS de SimGrid puis, en exploitant un environnement réel sur la plate-forme Grid'5000. Par la théorie des files d'attente, la stabilité du modèle a été démontrée dans un contexte centralisé. L'algorithme distribué d'exclusion mutuelle de Naimi et Tréhel a été enrichi pour offrir les fonctionnalités suivantes: (1) Permettre la connexion et la déconnexion des processus (ADEMLE), (2) admettre les locks partagés (AEMLEP) et enfin (3) associer les deux propriétés dans un algorithme récapitulatif (ADEMLEP). Les propriétés de sûreté et de vivacité ont été démontrées théoriquement. Le système peer-to-peer proposé combine nos algorithmes étendus et le modèle originel dho. Les gestionnaires de verrou et de ressource opèrent et interagissent mutuellement dans une architecture à trois niveaux. Suite à l'étude expérimentale du système sous-jacent menée sur Grid'5000, et des résultats obtenus, nous avons démontré la performance et la stabilité du modèle Dho face à une multitude de paramètres.
34

Gong, Xin. "Gestion de patrimoine immobilier et transition numérique : modélisation des flux de données et mesure des impacts du BIM". Thesis, Lyon, 2020. http://www.theses.fr/2020LYSET005.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
La phase de gestion exploitation maintenance (GEM) représente 75% du coût total d’un bâtiment sur l’ensemble de son cycle de vie. Si la construction neuve peut aujourd’hui bénéficier de nombreux services issus de la transition numérique et notamment du BIM (Building Information Modeling), l’intégration de tels services dans la GEM reste encore problématique. L’offre d’outils reste en effet encore confidentielle. Il manque encore des retours d’expérience et donc des évaluations objectives. Les outils de mesure des impacts de cette transition numérique sur la GEM ne sont peu voire pas disponibles. De plus, la rupture des flux de données entre phase de conception-construction et GEM gêne la généralisation de cette transition numérique pour les bâtiments existants. Le présent travail de thèse vise à proposer un outil de quantification des effets de l’introduction du BIM dans la stratégie patrimoniale des gestionnaires de parcs immobiliers, à partir de la modélisation des flux de données selon le cycle de développement en V. Les besoins des gestionnaires ont tout d’abord été identifiés et formalisés à partir de situations réelles ; les informations nécessaires à la modélisation ont été obtenues à partir de collectes de données, d’entretiens et d’observations in situ. La structure et le fonctionnement des gestionnaires ont ensuite été traduits dans une modélisation schématique ordonnant les activités de gestion de patrimoine immobilier, les relations fonctionnelles entre entités, les processus de travail. Cette structuration a conduit à la construction d’une métrique multicritère à partir de la définition de KPI (Key Performance Indicator), en exploitant trois indices d’importance, de compétence et de performance. Le modèle MIB (Mesure des Impacts du BIM) ainsi obtenu exploite les données issues de deux situations réelles pour en établir le diagnostic actuel et évaluer les impacts de la transition numérique. Suite aux impacts estimés, les solutions d’optimisation sont identifiées pour guider les gestionnaires dans leur stratégie de transition
The phase of Facility Management (FM) accounts for 75% of the total cost of a building over its entire life cycle. While nowadays new construction can benefit from many services resulting from the digital transition and particularly BIM (Building Information Modeling), the integration of such services in the FM is still problematic. And because of the offer of tools still confidential, it is in lack of practical feedback and therefore objective evaluations, and the lack of measurement tools of impacts of this digital transition on FM. Not to mention the digital transition with BIM on existing buildings considering the break in data flows between design-construction and FM. The present thesis aims to propose a tool for quantifying the effects of the introduction of BIM in the FM strategy of real estate asset managers, based on the modeling of data flows according to a system development lifecycle V-Model. First, the needs of the managers were identified and formalized from real situations; the information needed for modeling was obtained from data collection, interviews and observations in situ. The organizational structure and operation of the managers were then translated into a schematic modeling ordering the real estate asset management activities, the functional relationships between entities, the work processes. This structuring led to the construction of a multiple-criteria metric based on KPI (Key Performance Indicator), exploiting in three indices of importance, competence and performance. The resulting MIB (Measurement of Impacts of BIM) model uses data from two real case studies to establish the current diagnosis and evaluate the impacts of the digital transition. Following the estimated impacts, optimization solutions are identified to guide managers in their transition strategy
35

Houriet-Segard, Geneviève. "Logement, cycles démographiques et cycle de vie". Paris, Institut d'études politiques, 1998. http://www.theses.fr/1998IEPP0029.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Cette thèse comprend trois approches du marché du logement dont l'objectif est de saisir les interactions entre démographie et logement. 1. Analyse de l'influence des cycles démographiques sur la demande agrégée de logement : une revue de modèles macroéconomiques de marché du logement incluant un déterminant démographique est présentée, puis une modélisation du marché du logement est effectuée sur la base de données économiques françaises. L'hypothèse majeure de ce modèle est l'idée d'un surplus systématique d'offre de logement par rapport à la demande dont l'ampleur détermine le prix. Enfin, ce modèle est simulé selon différents scenarios démographiques et économiques. 2. Analyse des déterminants démographiques des choix individuels de logement : le but est de déceler une éventuelle logique de cycle de vie dans les comportements résidentiels des ménages avec acquisition d'un logement pendant la période d'activité et désaccumulation pendant la retraite. Ces comportements sont testés sur l'enquête logement 92: la consommation de logement, le statut d'occupation et la mobilité sont analyses. 3. Microsimulation du marché du logement qui permet d'étudier les interactions entre le vieillissement de la population, le marché du logement et les transferts intergénérationnels (legs et système de retraite) : le modèle considère une population hétérogène ou les individus naissent, ont des enfants, vieillissent et meurent, reçoivent des salaires ou retraites et bénéficient parfois d'un héritage. Chaque agent vit une ou deux périodes pendant lesquelles il optimise sa consommation selon les principes de la théorie du cycle de vie généralisée. Alors que l'on se retrouve à chaque période avec une population d'individus aux caractéristiques différentes, le bouclage macroéconomique du modèle met en place un système de prix qui assure la cohérence comptable des comportements. Ce modèle est enfin simulé afin d'analyser les effets de différents chocs démographiques et évolutions économiques
This thesis includes three parts. It's objective is to better understanding interactions between demography and housing. Analysis of the demographic cycles influencing the housing demand and the housing market equilibrium: some existing housing market's models with a demographic determinant are reviewed. Such a model is then built up based on French economical data. The model's main hypothesis is that there is a systematic excess of housing supply over demand. The level of this excess has a direct incidence on the price of housing. This model is simulated using various demographic and economical scenarios. Analysis of residential choices during the life cycle: the focus is the household's housing behavior with the saving's life cycle theory (e. G. People buy a house when they are working and sell it when they are retire to compensate the loss of revenue and to maintain the same level of consumption). These behaviors are tested on the data of the French survey "enquete logement 92". Behaviors such as the housing consumption, the tenure choice and the mobility of elder householders are tested in the context of saving's life cycle theory. Microsimulation of the housing market that allows the study of the interactions between aging population, the housing market and intergenerational transfers (bequests and social security programs): at the microeconomic level, this model takes into account a heterogeneous population simulating events such as birth's and death's dates, salary, retirement pension and sometimes inheritances. All people live two periods in their lifetime where they will optimize their consumption following the generalized saving's life cycle theory. Lastly, individual behaviors are aggregated and compiled at a macroeconomic level. This model is also simulated for different demographic and economical evolutions
36

Glade, Mathieu Lyonnet Patrick. "Modélisation des coûts de cycle de vie". [S.l.] : [s.n.], 2005. http://bibli.ec-lyon.fr/exl-doc/mglade.pdf.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
37

Bouzaiene-Marle, Leïla. "AVISE, une démarche d'Anticipation du Vieillissement par Interrogation et Stimulation d'Experts, application à un matériel passif d'une centrale nucléaire : le pressuriseur". Phd thesis, Ecole Centrale Paris, 2005. http://tel.archives-ouvertes.fr/tel-00271619.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Ce travail de thèse s'intéresse à l'anticipation du vieillissement des matériels (systèmes, structures ou composants) d'une installation dans le cadre de la gestion de son cycle de vie. La démarche proposée, intitulée AVISE pour Anticipation du Vieillissement par Interrogation et Stimulation d'Experts, permet l'identification des problèmes potentiels liés au vieillissement d'un matériel, de mesurer les risques pris en termes de probabilité d'apparition d'une dégradation ou de ses conséquences et de proposer des solutions adéquates pour freiner ou éviter ce vieillissement. La problématique de recherche a été formulée dans un contexte industriel particulier, le contexte du nucléaire. Ce dernier est caractérisé par des matériels spécifiques, particulièrement fiables et ayant donc un faible retour d'expérience. Pour compenser ce retour d'expérience faible, voire inexistant, deux solutions sont proposées dans la démarche. La première solution, qu'on peut considérer classique, consiste à avoir recours aux opinions d'experts. La seconde, plus originale, consiste à enrichir le retour d'expérience du matériel étudié par le retour d'expérience relevé sur des matériels dits « analogues ». Afin de mettre en œuvre ces solutions et de réaliser les objectifs de l'anticipation, un ensemble de supports méthodologiques a été conçu puis testé dans le cadre de l'application sur un matériel passif d'une centrale nucléaire : le pressuriseur. Le premier support est un processus générique d'interrogation d'experts identifié suite à une comparaison entre onze méthodes existantes utilisant le jugement d'experts. Deux méthodes de stimulation d'experts, intitulées STIMEX-IMDP, STIMulation d'EXperts pour l'Identification de Mécanismes de Dégradation Potentiels, et STIMEX-IPP, STIMulation d'EXperts pour l'Identification de Parades Potentielles, ont été élaborées en se fondant sur les concepts de l'aide à la créativité. Des listes de référence de mécanismes de dégradation et de modes ou effets du vieillissement ont été construites et utilisées dans le cadre de la méthode STIMEX-IMDP afin d'aider à la stimulation des experts et de favoriser l'exhaustivité des résultats. Ensuite, la démarche développée préconise et illustre l'utilisation des réseaux bayésiens pour la modélisation et la quantification des risques liés aux dégradations potentilles. Finalement, la construction d'un modèle conceptuel de données et l'identification des spécifications sont donnés pour la création d'une base de données de vieillissement. Les données à capitaliser ont été identifiées sur la base des travaux réalisés dans la thèse
38

Kubler, Sylvain. "Premiers travaux relatifs au concept de matière communicante : Processus de dissémination des informations relatives au produit". Electronic Thesis or Diss., Université de Lorraine, 2012. http://www.theses.fr/2012LORR0130.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Depuis de nombreuses années, plusieurs communautés telles que IMS (Intelligent Manufacturing Systems), HMS (Holonic Manufacturing System) ont suggéré l'utilisation de produits intelligents pour rendre les systèmes adaptables et adaptatifs et ont montré les bénéfices pouvant être réalisés, tant au niveau économique, qu'au niveau de la traçabilité des produits, qu'au niveau du partage des informations ou encore de l'optimisation des procédés de fabrication. Cependant, un grand nombre de questions restent ouvertes comme la collecte des informations liées au produit, leur stockage à travers la chaîne logistique, ou encore la dissémination et la gestion de ces informations tout au long de leur cycle de vie. La contribution de cette thèse consiste en la définition d'un cadre de dissémination des informations relatives au produit durant l'ensemble de son cycle de vie. Ce cadre de dissémination est associé à un nouveau paradigme qui change radicalement la manière de voir le produit et la matière. Ce nouveau concept consiste à donner la faculté au produit d'être intrinséquement et intégralement "communicant". Le cadre de dissémination des informations proposé offre la possibilité à l'utilisateur d'embarquer des informations sensibles au contexte d'utilisation du produit communicant. Outre la définition du processus de dissémination des informations, cette thèse offre un aperçu des champs de recherche, tant scientifiques que technologiques, à investiguer à l'avenir concernant le concept de "matière communicante"
Over the last decade, communities involved with intelligent-manufacturing systems (IMS - Intelligent Manufacturing Systems, HMS - Holonic Manufacturing System) have demonstrated that systems that integrate intelligent products can be more efficient, flexible and adaptable. Intelligent products may prove to be beneficial economically, to deal with product traceability and information sharing along the product lifecycle. Nevertheless, there are still some open questions such as the specification of what information should be gathered, stored and distributed and how it should be managed during the lifecycle of the product. The contribution of this thesis is to define a process for disseminating information related to the product over its lifecycle. This process is combined with a new paradigm, which changes drastically the way we view the material. This concept aims to give the ability for the material to be intrinsically and wholly "communicating". The data dissemination process allow users to store context-sensitive information on communicating product. In addition to the data dissemination process, this thesis gives insight into the technological and scientific research fields inherent to the concept of "communicating material", which remain to be explored
39

Virginillo, Martin Gustavo. "Méthode d'analyse du cycle de vie des emballages". Thesis, Université Laval, 2011. http://www.theses.ulaval.ca/2011/28009/28009.pdf.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
40

Charpin, Françoise. "Théorie du cycle de vie, croissance et endettement". Paris 10, 1990. http://www.theses.fr/1990PA100093.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
41

LALANDE, MULLER SYLVIE. "Migraine et vie genitale chez la femme". Rennes 1, 1993. http://www.theses.fr/1993REN1M147.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
42

Naumchev, Alexandr. "Exigences orientées objets dans un cycle de vie continu". Thesis, Toulouse 3, 2019. http://www.theses.fr/2019TOU30132.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
L'évolution constante des besoins des clients et des utilisateurs exige une réponse rapide de la part des équipes logicielles. Cela crée une forte demande pour un fonctionnement sans rupture des processus logiciels. L'intégration, la livraison et le déploiement continus, également connus sous le nom de DevOps, ont fait d'énormes progrès en rendant les processus logiciels réactifs au changement. Ces progrès n'ont toutefois eu que peu d'effets sur les exigences en matière de logiciels. Aujourd'hui, la plupart des besoins sont exprimés en langage naturel. Cette approche a un grand pouvoir expressif, mais au détriment d'autres aspects de la qualité des exigences telles que la traçabilité, la réutilisabilité, la vérifiabilité et la compréhensibilité. Le défi est ici d'améliorer ces aspects sans sacrifier l'expressivité. Bertrand Meyer, dans sa méthode multi-exigences, relève ce défi et propose d'exprimer les besoins individuels en trois couches : sous-ensemble déclaratif d'un langage de programmation orienté objet, langage naturel et notation graphique. Cette approche a motive et inspire les travaux de la présente thèse. Alors que l'approche multiexigences se concentre sur la traçabilité et la compréhensibilité, l'approche Seamless Object-Oriented Requirements (SOOR) présentée dans cette thèse prend en compte la vérifiabilité, la réutilisabilité et la compréhensibilité. Cette thèse explore l'hypothèse de Martin Glinz selon laquelle, pour soutenir la continuité, les exigences logicielles devraient être des objets. L'exploration confirme l'hypothèse et aboutit à un ensemble de méthodes basées sur des outils pour spécifier, valider, vérifier et réutiliser les exigences orientées objets. La contribution technique réutilisable la plus importante de cette thèse est une bibliothèque Eiffel prête à l'emploi de patrons de classes, qui capturent les modèles d'exigences logicielles récurrents. Les exigences orientées objets, concrètes et sans rupture, héritent de ces patrons et deviennent des clients du logiciel spécifié. La construction de logiciels orientés objets devient la méthode de spécification, de validation et de réutilisation des exigences ; la conception par contrat devient la méthode de vérification de l'exactitude des implémentations par rapport aux exigences. Cette thèse s'appuie sur plusieurs expériences et montre que la nouvelle approche propose favorise la vérifiabilité, la réutilisabilité et la compréhensibilité des exigences tout en maintenant l'expressivité à un niveau acceptable. Les expérimentations mettent en oeuvre plusieurs exemples, dont certains sont des standards de l'état de l'art de l'ingénierie des exigences. Chaque expérimentation illustre un problème par un exemple, propose une solution générale et montre comment la solution règle le problème. Alors que l'expérimentation s'appuie sur Eiffel et son support d'outils avancés, tels que la preuve et les tests automatisés, chaque idée présentée dans l'approche SOOR s'adapte conceptuellement à tout langage de programmation orienté objet typé statiquement, possédant un mécanisme de généricité et un support élémentaire pour les contrats
The constantly changing customers' and users' needs require fast response from software teams. This creates strong demand for seamlessness of the software processes. Continuous integration, delivery and deployment, also known as DevOps, made a huge progress in making software processes responsive to change. This progress had little effect on software requirements, however. Specifying requirements still relies on the natural language, which has an enormous expressive power, but inhibits requirements' traceability, verifiability, reusability and understandability. Promoting the problematic qualities without inhibiting the expressiveness too much introduces a challenge. Bertrand Meyer, in his multirequirements method, accepts the challenge and proposes to express individual requirements on three layers: declarative subset of an object-oriented programming language, natural language and a graphical notation. This approach has motivated and inspired the work on the present thesis. While multirequirements focus on traceability and understandability, the Seamless Object-Oriented Requirements approach presented in the dissertation takes care of verifiability, reusability and understandability. The dissertation explores the Martin Glinz' hypothesis that software requirements should be objects to support seamlessness. The exploration confirms the hypothesis and results in a collection of tool-supported methods for specifying, validating, verifying and reusing object-oriented requirements. The most significant reusable technical contribution of the dissertation is a ready-to-use Eiffel library of template classes that capture recurring software requirement patterns. Concrete seamless object-oriented requirements inherit from these templates and become clients of the specified software. Object-oriented software construction becomes the method for requirements specification, validation and reuse; Design by Contract becomes the method for verifying correctness of implementations against the requirements. The dissertation reflects on several experiments and shows that the new approach promotes requirements' verifiability, reusability and understandability while keeping expressiveness at an acceptable level. The experiments rely on several examples, some of which are used as benchmarks in the requirements literature. Each experiment illustrates a problem through an example, proposes a general solution, and shows how the solution fixes the problem. While the experimentation relies on Eiffel and its advanced tool support, such as automated proving and testing, each idea underpinning the approach scales conceptually to any statically typed object-oriented programming language with genericity and elementary support for contracts
43

Popovici, Emil. "Contribution à l'analyse du cycle de vie des quartiers". Paris, ENMP, 2005. http://www.theses.fr/2005ENMP1340.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Les études sur la qualité environnementale des bâtiments ont montré l’importance de décisions prises à l’échelle d’un quartier et l’utilité d’évaluer à ce niveau la pertinence de différentes solutions techniques et architecturales. Un logiciel d’analyse du cycle de vie (ACV) des quartiers a alors été développé afin de fournir une aide à l’éco-conception et à la gestion durable pour les développeurs des projets de quartiers, les concepteurs, les réalisateurs et les habitants/propriétaires. Cet outil intègre des outils de simulation thermique et d'ACV au niveau d’un bâtiment, complétés par des éléments supplémentaires (réseaux, espaces publics, etc. ). Des indicateurs environnementaux sont évalués, permettant la comparaison de plusieurs alternatives. A titre d’illustration, l’évaluation de trois quartiers européens est présentée. Ce travail vise à renforcer les liens entre la conception urbaine, architecturale et technique, afin de progresser vers une conception intégrée
Studies regarding the environmental quality of buildings have shown the importance of decisions at the settlement scale and of assessing the relevance of various architectural and technical solutions at this level. A settlement life cycle assessment (LCA) software tool was developed, providing a decision support to: project developers, designers, contractors and owners/residents, in order to design and manage a settlement in a sustainable way. This achievement was possible by linking a thermal simulation tool with a LCA tool at building level and complementing them with supplementary elements (e. G. Networks, open spaces, etc. ). Several environmental indicators are evaluated allowing comparisons of various alternative designs. First evaluations of three European settlements are presented in order to illustrate the application of the tool. This work aims to contribute in linking urban, architectural and technical design, according to an integrated design approach
44

Arrondel, Luc. "Hypothèse du cycle de vie et composition du patrimoine". Paris 10, 1988. http://www.theses.fr/1988PA100166.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Cette thèse propose un modèle général de choix d'actifs dont on teste les principales prédictions sur les données de l'enquête CREP 1980 effectuée auprès de 3000 ménages. Le modèle constitue une extension de l'hypothèse du cycle de vie de Modigliani à la composition du patrimoine et s'appuie notamment sur les théories partielles existantes (modèle de cycle de vie généralisé aux transmissions, théorie des choix de portefeuille de Merton, modèles d'acquisition de biens durables et du logement). Il suppose finalement que les comportements patrimoniaux des ménages peuvent être décrits par une procédure de choix séquentielle en 3 étapes : (1) arbitrage consommation-épargne; (2) à patrimoine donné, choix discret de la combinaison optimale d'actifs; (3) a combinaison fixée, choix continu des demandes de chaque actif. L'analyse empirique, économétrique et statistique, qui traite a la fois du nombre d'actifs, indicateur de diversification, et de la composition de la richesse, met en évidence l'importance du niveau du patrimoine et de l'âge sur les demandes d'actifs et la prédominance du choix discret par rapport au choix continu. Ces résultats apparaissent favorables à l'hypothèse d'une allocation des ressources en trois étapes. L'étude des facteurs explicatifs de la détention et du montant des divers placements permet également d'élaborer une typologie des 14 actifs distingues dans l'enquête
This thesis presents a general model of portfolio choices which is tested on the french CREP 1980 survey with 3. 000 households. The model extends the framework of modigliani's life cycle hypothesis to wealth composition with the help of existing partial theories (generalised form of the life cycle hypothesis allowing for bequest, merton's intertemporal portfolio choice model, model of acquisition of durable goods and housing). If finally assumes that household accumulation behaviour can be described by a three stage sequential procedure : (1) consumption-saving decision; (2) discrete choice of the combination of assets held; (3) continuous choice of conditional assets demands, given the combination held. Empirical econometric and statistical analysis deals both with the number of assets held, as an indicator of wealth diversification, and with portfolio composition. It shows the importance of the size of wealth and of age on assets demands and reveals the key role played by the discrete choice, results wich seem to vindicate the hypothesis of a three stage budgeting. From the explanatory variables of each asset ownership and conditional demand it is also possible to elaborate a typology of the 14 assets distinguished by the survey
45

Arrondel, Luc. "Hypothèse du cycle de vie et composition du patrimoine". Grenoble 2 : ANRT, 1988. http://catalogue.bnf.fr/ark:/12148/cb376114018.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
46

Milette, Diane. "L'intérêt social dans une perspective du cycle de vie". Thèse, Université du Québec à Trois-Rivières, 1993. http://depot-e.uqtr.ca/5280/1/000606511.pdf.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
47

De, Lavergne Casimir. "Eléments du cycle de vie de l'Eau Antarctique de Fond". Thesis, Paris 6, 2016. http://www.theses.fr/2016PA066373/document.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
L'Eau Antarctique de Fond constitue la principale masse d'eau océanique par son volume, et nourrit la composante la plus profonde et la plus lente de la circulation océanique. Les processus qui régissent son cycle de vie sont donc clé pour la capacité de stockage de l'océan en carbone et chaleur aux échelles centennales à multi-millénaires. Cette thèse tente de caractériser et quantifier les principaux processus responsables de la destruction (synonyme d'allègement et de remontée) de l'Eau Antarctique de Fond dans l'océan abyssal. A partir d'une estimée issue d'observations de la structure thermohaline de l'océan mondial et de diagnostics fondés sur le budget de densité des eaux profondes, les rôles respectifs du chauffage géothermal, du mélange turbulent par déferlement d'ondes internes et de la géométrie des bassins sont évalués. Il est montré que la géométrie de l'océan gouverne la structure de la circulation de l'Eau Antarctique de Fond. La contribution du déferlement des ondes internes, bien que mal contrainte, est estimée insuffisante pour maintenir un rythme de destruction de l'Eau Antarctique de Fond comparable à celui de sa formation. Le chauffage géothermal a quant à lui un rôle important pour la remontée des eaux recouvrant une large surface du lit océanique. Les résultats suggèrent une réévaluation de l'importance du mélange au niveau des détroits et seuils profonds, mais aussi du rôle fondamental de la forme des bassins, pour l'allègement et le transport des eaux abyssales
Antarctic Bottom Water is the most voluminous water mass of the World Ocean, and it feeds the deepest and slowest component of ocean circulation. The processes that govern its lifecycle are therefore key to the ocean's carbon and heat storage capacity on centennial to multi-millennial timescales. This thesis aims at characterizing and quantifying processes responsible for the destruction (synonymous of lightening and upwelling) of Antarctic Bottom Water in the abyssal ocean. Using an observational estimate of the global ocean thermohaline structure and diagnostics based on the density budget of deep waters, we explore the roles of basin geometry, geothermal heating and mixing by breaking internal waves for the abyssal circulation. We show that the shape of ocean basins largely controls the structure of abyssal upwelling. The contribution of mixing powered by breaking internal waves, though poorly constrained, is estimated to be insufficient to destroy Antarctic Bottom Water at a rate comparable to that of its formation. Geothermal heating plays an important role for the upwelling of waters covering large seafloor areas. The results suggest a reappraisal of the role of mixing in deep straits and sills, but also of the fundamental role of basin geometry, for the lightening and transport of abyssal waters
48

Lelièvre, Luc. "Cycle de vie et mobilité résidentielle dans l'agglomération de Québec". Thesis, National Library of Canada = Bibliothèque nationale du Canada, 1999. http://www.collectionscanada.ca/obj/s4/f2/dsk1/tape10/PQDD_0007/MQ44695.pdf.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
49

Sallez, Yves. "Produit " actif " tout au long de son cycle de vie". Habilitation à diriger des recherches, Université de Valenciennes et du Hainaut-Cambresis, 2012. http://tel.archives-ouvertes.fr/tel-00768771.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Les évolutions scientifiques survenues ces deux dernières décennies en productique ont eu vocation à conférer plus d'automatisation aux équipements, à définir de nouvelles architectures de commande et pilotage des moyens de production permettant une plus grande flexibilité, reconfigurabilité et réactivité du système. Les initiatives de recherches internationales IMS (Intelligent Manufacturing Systems), HMS (Holonic Manufacturing Systems) ont notamment permis de proposer de nouveaux concepts et architectures s'appuyant sur la décentralisation et la distribution des fonctions dites " intelligentes " de conduite des moyens et ressources. Une nouvelle approche de conduite centrée sur le produit a également vu le jour via les travaux sur le concept d'" intelligent product ". Dans ce nouveau paradigme de " Système contrôlé par le Produit ", il s'agit de conférer au produit un rôle actif et participatif dans les décisions et les flux d'informations engendrés tout au long de son cycle de vie. Dans ce contexte, nos travaux ont permis d'expliciter la notion d'activité associée à un produit tout au long de son cycle de vie. A cet effet, nous avons mis en évidence l'apport de cette activité associée au produit en matière d'amélioration de performances tant pour le produit que pour les différents systèmes de soutien traversés. Selon une approche de type Closed-loop Product Life Management, l'enrichissement de la qualité des flux d'informations entre les différentes étapes du cycle de vie, a également été souligné. Afin de supporter ce concept d'activité, un modèle générique a été proposé. Le paradigme holonique nous a notamment permis de caractériser l'activité d'un produit " actif " constitué lui-même de sous-systèmes " actifs ". L'aspect interactionnel au sein d'un collectif de produits " actifs " a également été pris en compte au niveau du modèle. Nous avons également mis l'accent sur des implémentations réelles des concepts, que ce soit dans un contexte de fabrication flexible via la cellule de l'AIP de Valenciennes ou dans un contexte de maintenance prédictive via le projet industriel SURFER. Dans ce cadre, notre choix d'une implémentation " embarquée " de l'activité, nous démarque de la plupart des travaux réalisés au sein de la communauté française et constitue une réelle spécificité. Nos perspectives de Recherche s'articulent autour du concept d'auto-organisation qui s'avère fondamental pour le développement de systèmes intelligents. Elles visent de nombreux domaines applicatifs (systèmes de production, chaînes logistiques, systèmes de transport, systèmes hospitaliers, bâtiments intelligents...).
50

El, Faiz Meryem. "Analyse du cycle de vie à l'aide du logiciel SimaPro". Master's thesis, Université Laval, 2020. http://hdl.handle.net/20.500.11794/40144.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
L’analyse de cycle de vie (ACV) est une méthode standardisée d’évaluation des impacts environnementaux d’un produit qui est définie par les référentiels ISO 14040:2006 et ISO14044:2006. Elle permet de calculer l’empreinte environnementale d’un produit sur l’ensemble des différentes étapes de son cycle de vie (extraction de matière première, fabrication, transport, usage et fin de vie) sur un ensemble d’indicateurs représentatifs des problématiques environnementales du produit (changement climatique, ressources naturelles, ozone, toxicité, écotoxicité). La réalisation d’une analyse de cycle de vie (ACV) nécessite le traitement, le calcul et l’analyse de nombreuses informations. L’utilisation d’un logiciel d’ACV facilite ces différentes phases, en garantissant transparence et traçabilité. Ce mémoire présente un état d’art des outils et méthodes disponibles pour la réalisation d’une ACV sur la base des principes de la série ISO14040. SimaPro, l’un des principaux logiciels commerciaux mis à la disposition des praticiens de l’ACV, est présenté en détail à travers une étude de cas, afin d’explorer les différentes fonctions de base , les bases de données et les méthodes de calcul d’impact mises à disposition avec le logiciel .Mots-clés : ACV, empreinte environnementale, bases de données, SimaPro.
Life cycle assessment (LCA) is a standardized method for assessing the environmental impacts of a product, which is defined by the ISO 14040: 2006 and ISO 14044: 2006standards. It is a recognized approach for assessing the environmental impact of products across their entire life cycle from raw materials extraction through manufacturing, transportation, usage and disposal based on a set of indicators representative of environmental issues of the product (climate change, natural resources, ozone, toxicity, ecotoxicity). Performing a life cycle assessment requires processing, calculating and analyzing a lot of information. The use of LCA software facilitates these different phases and assures transparency and traceability. This thesis presents a state of the art of the tools and methods available for carrying out an LCA based on the principles of the ISO14040 series. SimaPro, one of the main commercial software available for LCA practitioners, is presented in detail through a case study, in order to explore the different basic functions, databases and the impact calculation methods made available with the software. Keywords: LCA, environmental footprint, databases, SimaPro.

Vai alla bibliografia