Tesi sul tema "Traçabilité des données"

Segui questo link per vedere altri tipi di pubblicazioni sul tema: Traçabilité des données.

Cita una fonte nei formati APA, MLA, Chicago, Harvard e in molti altri stili

Scegli il tipo di fonte:

Vedi i top-17 saggi (tesi di laurea o di dottorato) per l'attività di ricerca sul tema "Traçabilité des données".

Accanto a ogni fonte nell'elenco di riferimenti c'è un pulsante "Aggiungi alla bibliografia". Premilo e genereremo automaticamente la citazione bibliografica dell'opera scelta nello stile citazionale di cui hai bisogno: APA, MLA, Harvard, Chicago, Vancouver ecc.

Puoi anche scaricare il testo completo della pubblicazione scientifica nel formato .pdf e leggere online l'abstract (il sommario) dell'opera se è presente nei metadati.

Vedi le tesi di molte aree scientifiche e compila una bibliografia corretta.

1

Bazin, Cyril. "Tatouage de données géographiques et généralisation aux données devant préserver des contraintes". Caen, 2010. http://www.theses.fr/2010CAEN2006.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Le tatouage est un procédé fondamental pour la protection de la propriété intellectuelle. Il consiste à insérer une marque dans un document numérique en le modifiant légèrement. C'est la présence de cette marque qui permet au propriétaire légitime d'un document numérique de faire preuve de l'antériorité de ses droits. L'originalité de notre travail est double. D'une part nous utilisons une approche locale pour garantir à priori que la qualité des documents est préservée lors de l'insertion de la marque. D'autre part nous proposons un schéma de tatouage générique qui s'abstrait du type de documents à tatouer. La thèse s'articule en trois parties. Nous commencons par introduire les concepts de base du tatouage de données contraintes ainsi que l'état de l'art du tatouage de données géographiques. Nous présentons ensuite notre schéma de tatouage pour les données géographiques vectorielles qui sont souvent utilisées dans les systèmes d'informations géographiques. Ce schéma aveugle permet de tatouer un document tout en en préservant certaines qualités topologiques et métriques. La marque est robuste; elle résiste entre autres aux transformations géométriques et au découpage du document. Nous proposons une implémentation efficace que nous validons par de multiples expérimentations. Dans la dernière partie de la thèse, nous généralisons ce schéma aux données devant préserver des contraintes. Le schéma générique que nous obtenons facilitera la conception de schémas de tatouage pour de nouveaux type de données. Nous donnons notamment un exemple d'application du schéma générique pour les bases de données relationnelles. Afin de montrer qu'il est possible de travailler directement sur ce schéma, nous proposons deux protocoles de détection de la marque applicables directement sur toute implémentation du schéma générique
Digital watermaking is a fundamental process for intellectual property protection. It consists in inserting a mark into a digital document by slightly modifications. The presence of this mark allows the owner of a document to prove the priority of his rights. The originality of our work is twofold. In one hand, we use a local approach to ensure a priori that the quality of constrained documents is preserved during the watermark insertion. On the other hand, we propose a generic watermarking scheme. The manuscript is divided in three parts. Firstly, we introduce the basic concepts of digital watermarking for constrainted data and the state of the art of geographical data watermarking. Secondly, we present our watermarking scheme for digital vectorial maps often used in geographic information systems. This scheme preserves some topological and metric qualities of the document. The watermark is robust, it is resilient against geometric transformations and cropping. We give an efficient implementation that is validated by many experiments. Finally, we propose a generalization of the scheme for constrainted data. This generic scheme will facilitate the design of watermarking schemes for new data type. We give a particular example of application of a generic schema for relational databases. In order to prove that it is possible to work directly on the generic scheme, we propose two detection protocols straightly applicable on any implementation of generic scheme
2

Bossy, Robert. "Édition coopérative de bases de données scientifiques". Paris 6, 2002. http://www.theses.fr/2002PA066047.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
3

Hadjipavlou, Elena. "Big data, surveillance et confiance : la question de la traçabilité dans le milieu aéroportuaire". Thesis, Université Côte d'Azur (ComUE), 2016. http://www.theses.fr/2016AZUR2044/document.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Cette thèse questionne, d’un point de vue compréhensif et critique, la notion de traces numériques à l’heure du Big Data et de la relation entre les notions de la surveillance et la confiance. Le « Big Data » fait référence à la production massive de données qui représentent une manne précieuse de bénéfices. En effet, la quantité massive de données produites dans le monde atteint des volumes si importants qu’il est indéniablement impossible de les analyser par l’humain sans l’aide d’outils technologiques et statistiques adéquats. Parmi les secteurs concernés par cette révolution technologique et sociétale, le secteur aéroportuaire est aujourd’hui confronté à une importante transformation, nourrie par l’explosion des données au sein de sa structure. Les données générées, collectées et stockées au cours du parcours du passager sont désormais massives et leur gestion est un important levier pour la sécurité, l’amélioration de services et le confort du passager. Pour autant, les avantages attendus n’en soulèvent pas moins une grande question : où vont ces données ? Difficile d’y répondre. Et tant qu’on ne sait pas, comment peut-on faire confiance ? Ces réflexions sont mises en examen à l’aéroport de Larnaca à Chypre. Les différents angles d’approche ainsi que la diversité des acteurs ont nécessité la constitution d’un corpus multidimensionnel, issu d’une méthodologie mixte, afin d’avoir une approche compréhensive du sujet. Ce corpus comprend à la fois des entretiens, des questionnaires et des récits de vie des passagers et des professionnels du terrain. L’analyse qualitative et quantitative qui a suivi était basée sur un cadre précédemment élaboré afin de croiser les représentations des acteurs à propos de la surveillance et la confiance et mettre en évidence les différentes visions inhérentes à cette question
This research project questions, in a comprehensive and critical way, the presence of digital traces in the era of Big Data. This reflection opens up in the relation between Surveillance and Trust. In recent years, “Big Data” has massively and repeatedly been used in order to describe a new societal dynamic that would be characterized by the production of massive quantities of data. Furthermore, enormous potential benefits from using new statistical tools to analyze these data generated from connected objects and tools in more and more human actions. The airport sector is currently facing a major transformation, fueled by the explosion of data within its structure. The data generated during a passenger's journey are now extremely massive. There is no doubt that the management of this data is an important lever for the safety, the improvement of services and the comfort of the passenger. However, the expected benefits raise a great question: Where do these data go? We do not know. And as long as we do not know, how can we trust? These considerations are being examined at Larnaca airport in Cyprus. The different angles of approach as well as the diversity of the actors required the creation of a multidimensional corpus, resulting from a mixed methodology, in order to have a comprehensive approach to the subject. This corpus includes interviews, questionnaires and life stories of passengers and professionals. The qualitative and quantitative analysis that followed was based on a theoretical framework previously elaborated, in order to cross the representations of the actors concerning the surveillance and the trust and finally, highlight the different inherent visions to this issue
4

Maléchaux, Astrid. "Traçabilité et authentification d'huiles d'olive monovariétales par des outils chimiométriques". Electronic Thesis or Diss., Aix-Marseille, 2020. http://theses.univ-amu.fr.lama.univ-amu.fr/200110_MALECHAUX_773gwajs656jpq766z43jurz_TH.pdf.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Il est important d’assurer l’authenticité et la traçabilité des produits alimentaires pour faire face aux préoccupations des consommateurs et aux pertes économiques engendrée par les cas de fraude. Or les huiles d’olive, en particulier celles dont l’origine leur apporte une valeur ajoutée supplémentaire, sont parmi les produits les plus touchés par les fraudes. Cependant, les analyses officielles actuelles s’intéressent seulement aux critères de pureté et de qualité des huiles, mais pas à la confirmation de leur origine variétale. Cette thèse propose donc des outils chimiométriques visant à faciliter l’application de la reconnaissance variétale des huiles d’olive lors de contrôles de routine. D’une part, en ajoutant au modèle PLS1-DA une règle de décision par carte de contrôle, les échantillons dont les caractéristiques s’éloignent du profil de référence peuvent être facilement et rapidement identifiés, même en présence d’effectifs déséquilibrés entre les classes à prédire. D’autre part, le développement de stratégies de fusion des données permet de bénéficier de la synergie entre les sources d’information complémentaires que sont l’analyse spécifique des acides gras par chromatographie gazeuse et les analyses globales par spectroscopies proche- et moyen-infrarouge
Ensuring the authenticity and traceability of food products is important to deal with consumer concerns and economic losses generated by food fraud cases. Moreover, olive oils, especially those whose origin gives them an extra added value, are among the products most affected by frauds. However, current official analyses only focus on purity and quality criteria of the oils, but not on the confirmation of their varietal origin. Therefore, this thesis proposes chemometric tools to facilitate the application of the varietal recognition of olive oils by routine analyses. On the one hand, by adding a control chart decision rule to the PLS1-DA model, samples whose characteristics are deviating from the reference profile can easily and quickly be identified, even in the presence of unbalanced numbers between the predicted classes. On the other hand, the development of data fusion strategies allows to benefit from the synergy between complementary sources of information such as the specific analysis of fatty acids by gas chromatography and the global analyses by near- and mid-infrared spectroscopy
5

Bendriss, Sabri. "Contribution à l'analyse et la conception d'un système d'information pour la gestion de la traçabilité des marchandises dans un contexte de transport multimodal". Le Havre, 2009. http://www.theses.fr/2009LEHA0024.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Une des solutions permettant de réguler et rationaliser le déplacement physique des marchandises est de réussir à synchroniser le flux physique avec son pendant informationnel tout au long des différents maillons constituant la chaîne de transport. Dans cette optique, une solution de suivi et de traçabilité des marchandises ne peut que contribuer à une meilleure maîtrise des flux. Dans ce mémoire, nous proposons une approche de modélisation des données de la traçabilité des marchandises basée sur des approches de recherche innovantes (PLM, Produit intelligent, Systèmes centrés sur le produit) et tenant compte des possibilités offertes par l’usage des NTIC en terme de partage des données, d’auto-identification et de géolocalisation. Par la suite, afin d'intégrer nos données avec le reste des données de la chaîne de transport mais aussi afin de faciliter l'échange et le partage des données, nous proposons une modélisation et le développement d’une plateforme d'intermédiation générique basée sur la logique des web services. Répondant à des critères d’interopérabilité et d’intégrabilité le résultat permet, à travers des mécanismes d’échange et de sauvegarde des données, de suivre et de resituer le cycle de vie des marchandises dans son intégralité
One of solutions to regulate and rationalize the physical displacement of goods is to succeed to synchronize the physical flow with its informational counterpart throughout the various links constituting the transport chain. In this context, a solution of goods tracking and tracing can contribute to a better mastery of flows. In this memory, we propose a data modeling approach for goods traceability based on innovative research approaches (PLM, Intelligent product, Product centered systems) and taking into account the possibilities offered by the use of NICT in terms of data sharing, auto-identification and geolocation. Then, in order to integrate our traceability data with the other transport chain data, but also in order to facilitate the sharing and the exchange of our data, we propose a modeling and the development of an intermediation platform based on the web services logic. Meeting criteria of interoperability and integrability, the result allows through mechanisms for exchange and saving data to follow and to restore goods lifecycle in its entirety
6

Diallo, Thierno M. L. "Approche de diagnostic des défauts d’un produit par intégration des données de traçabilité unitaire produit/process et des connaissances expertes". Thesis, Lyon 1, 2015. http://www.theses.fr/2015LYO10345.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Ces travaux de thèse, menés dans le cadre du projet FUI Traçaverre, visent à optimiser le rappel pour un processus qui n'est pas de type batch avec une traçabilité unitaire des articles produits. L'objectif étant de minimiser le nombre d'articles rappelés tout en s'assurant que tous les articles avec défaut sont rappelés. Pour cela, nous avons proposé un processus de rappel efficient qui intègre, d'une part, les possibilités offertes par la traçabilité unitaire et, d'autre part, utilise une fonction de diagnostic devenue indispensable avant le rappel effectif des produits. Dans le cas des systèmes industriels complexes pour lesquels l'expertise humaine est insuffisante et dont nous n'avons pas de modèle physique, la traçabilité unitaire offre une possibilité pour mieux comprendre et analyser le procédé de fabrication par une reconstitution de la vie du produit à travers les données de traçabilité. Le couplage des données de traçabilité unitaire produit/process représente une source potentielle de connaissance à mettre en oeuvre et à exploiter. Ces travaux de thèse proposent un modèle de données pour le couplage de ces données. Ce modèle de données est basé sur deux standards, l'un dédié à la production et l'autre portant sur la traçabilité. Après l'identification et l'intégration des données nécessaires, nous avons développé une fonction de diagnostic à base de données. La construction de cette fonction diagnostic a été réalisée par apprentissage et comprend l'intégration des connaissances sur le système pour réduire la complexité de l'algorithme d'apprentissage. Dans le processus de rappel proposé, lorsque l'équipement à l'origine du défaut nécessitant le rappel est identifié, l'état de santé de cet équipement au voisinage de l'instant de fabrication du produit contrôlé défectueux est évalué afin d'identifier les autres produits susceptibles de présenter le même défaut. L'approche globale proposée est appliquée à deux études de cas. La première étude a concerné l'industrie verrière. Le second cas d'application a porté sur le process benchmark Tennessee Eastman
This thesis, which is part of the Traçaverre Project, aims to optimize the recall when the production process is not batch type with a unit traceability of produced items. The objective is to minimize the number of recalled items while ensuring that all items with defect are recalled. We propose an efficient recall procedure that incorporates possibilities offered by the unitary traceability and uses a diagnostic function. For complex industrial systems for which human expertise is not sufficient and for which we do not have a physical model, the unitary traceability provides opportunities to better understand and analyse the manufacturing process by a re-enactment of the life of the product through the traceability data. The integration of product and process unitary traceability data represents a potential source of knowledge to be implemented and operate. This thesis propose a data model for the coupling of these data. This data model is based on two standards, one dedicated to the production and the other dealing with the traceability. We developed a diagnostic function based on data after having identified and integrated the necessary data. The construction of this diagnosis function was performed by a learning approach and comprises the integration of knowledge on the system to reduce the complexity of the learning algorithm. In the proposed recall procedure, when the equipment causing the fault is identified, the health status of this equipment in the neighbourhood of the manufacturing time of the defective product is evaluated in order to identify other products likely to present the same defect. The global proposed approach was applied to two case studies. The first study focuses on the glass industry. The second case of application deals with the benchmark Tennessee Eastman process
7

Le, roch Yann. "De l'intérêt de la mise en réseau de données logistiques standardisées : des technologies supports aux business models". Thesis, Paris Sciences et Lettres (ComUE), 2017. http://www.theses.fr/2017PSLEM059.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
De nouveaux modèles logistiques, tels que l’Internet Physique, proposent une rupture dans le mode acheminement de marchandises au sein de réseaux de plus en plus interconnectés. Cette interconnexion requiert l’usage de systèmes d’informations innovants relevant de l’Internet des Objets, pour tracer et router ces marchandises en boucle ouverte. Cette double redéfinition des flux informationnels et physiques est à même d’impacter les métiers logistiques et leurs business models. Au cours d’une recherche sous contrat CIFRE pour le compte d’un consortium, nous étudions cette question en trois temps : Par une expérimentation de technologies de track et trace standardisées au sein d’un service de gestion de supports logistiques réutilisables, Par l’identification des nouvelles logiques de valeur induites, Par l’observation de l’impact de ces nouvelles offres technologies/business sur les services logistiques en place. Nos résultats valident l’intérêt de ces systèmes d’informations pour tracer les conteneurs au sein de l’Internet Physique. Une gamme de nouvelles tactiques induites par ces nouveaux modèles informationnels et physiques est proposée. Cependant, les business models au sein de ce réseau logistique ne sont pas, à ce stade d’expérimentation, impactes par les nouvelles logiques du numérique
New logistics model, such as the Physical Internet, offer a breakthrough in the way goods are routed inside networks that are more and more inter-connected. This inter-connection requires innovative, Internet-of-Things-like, information systems for tracking and routing those goods within open loops. This double redefinition of physical and digital flows is bound to impact logistics service providers professions and their business models. Through an action-research on be-half of an industrial consortium, we study this question in three steps : by experimenting track and trace standardized technologies used to manage returnable transport items, by identifying new value logics induced by these new technological means, and finally observing how these new technologies and businesses impact the logistics services in place. Our results validate the benefit of these new information systems to trace logistical units within the Physical Internet. A range of new business tactics induced by those new digital and physical models is proposed. However, to the extent of our research, the logistic’s network business models are not yet impacted by these new digital logics
8

Toussaint, Marion. "Une contribution à l'industrie 4.0 : un cadre pour sécuriser l'échange de données standardisées". Electronic Thesis or Diss., Université de Lorraine, 2022. http://www.theses.fr/2022LORR0121.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
La récente transformation numérique de l'industrie a entraîné de nombreux avantages, allant de produits de meilleure qualité à une productivité accrue et à des délais de mise sur le marché plus courts. Dans ce monde numérique, les données sont devenues un élément essentiel dans de nombreuses décisions et processus critiques au sein et entre les organisations. L'échange de données est désormais un processus clé pour la communication, la collaboration et l'efficacité des organisations. L'adoption par l'industrie 4.0 de technologies de communication modernes a rendu ces données disponibles et partageables à un rythme plus rapide que nous ne pouvons les consommer ou les suivre. Cette vitesse apporte des défis importants tels que l'interopérabilité des données et la traçabilité des données, deux défis interdépendants auxquels les industriels sont confrontés et doivent comprendre pour adopter la meilleure position pour les relever. D'une part, les problèmes d'interopérabilité des données sont un frein à des innovations et des collaborations plus rapides. Le volume croissant d'échanges de données est associé à un nombre accru de systèmes hétérogènes qui ont besoin de communiquer et de se comprendre. Les normes d'information sont une solution prouvée, mais leur processus de développement long et complexe les empêche de suivre le rythme rapide de l'environnement qu'elles ont besoin de soutenir et d'assurer l'interopérabilité, ce qui ralentit leur adoption. Cette thèse propose une transition de la gestion de projet prédictive à adaptative avec l'utilisation de méthodes Agiles pour raccourcir les itérations de développement et augmenter la vitesse de livraison, augmentant ainsi l'adoption des normes. Alors que les environnements adaptatifs se sont révélés être une solution viable pour aligner les normes sur le rythme rapide de l'innovation de l'industrie, la plupart des solutions de gestion des exigences des projets n'ont pas évolué pour s'adapter à ce changement. Cette thèse introduit également un modèle pour soutenir une meilleure élicitation des exigences lors de l'élaboration des normes avec une traçabilité et une visibilité accrues. D'autre part, les décisions basées sur les données sont exposées à la vitesse à laquelle les données falsifiées peuvent se propager dans les organisations et corrompre ces décisions. Avec un temps moyen pour identifier (MTTI) et un temps moyen pour contenir (MTTC) une telle menace déjà proche de 300 jours, la croissance constante des données produites et échangées ne fera qu'accroître le MTTI et le MTTC. Bien que les signatures numériques aient déjà prouvé leur utilité pour identifier une telle corruption, un cadre formel de traçabilité des données est toujours nécessaire pour suivre l'échange de données sur des réseaux vastes et complexes d'organisations afin d'identifier et de contenir la propagation des données corrompues. Cette thèse analyse les cadres de cybersécurité existants, leurs limites et introduit un nouveau cadre basé sur des normes, sous la forme d'un profil NIST CSF étendu, pour se préparer, atténuer, gérer et suivre les attaques de manipulation de données. Ce cadre est également accompagné de conseils de mise en œuvre pour faciliter son adoption et sa mise en œuvre par les organisations de toutes tailles
The recent digital transformation of the manufacturing world has resulted in numerous benefits, from higher quality products to enhanced productivity and shorter time to market. In this digital world, data has become a critical element in many critical decisions and processes within and across organizations. Data exchange is now a key process for the organizations' communication, collaboration, and efficiency. Industry 4.0 adoption of modern communication technologies has made this data available and shareable at a quicker rate than we can consume or track it. This speed brings significant challenges such as data interoperability and data traceability, two interdependent challenges that manufacturers face and must understand to adopt the best position to address them. On one hand, data interoperability challenges delay faster innovation and collaboration. The growing volume of data exchange is associated with an increased number of heterogeneous systems that need to communicate with and understand each other. Information standards are a proven solution, yet their long and complex development process impedes them from keeping up with the fast-paced environment they need to support and provide interoperability for, slowing down their adoption. This thesis proposes a transition from predictive to adaptive project management with the use of Agile methods to shorten the development iterations and increase the delivery velocity, increasing standards adoption. While adaptive environments have shown to be a viable solution to align standards with the fast pace of industry innovation, most project requirements management solutions have not evolved to accommodate this change. This thesis also introduces a model to support better requirement elicitation during standards development with increased traceability and visibility. On the other hand, data-driven decisions are exposed to the speed at which tampered data can propagate through organizations and corrupt these decisions. With the mean time to identify (MTTI) and mean time to contain (MTTC) such a threat already close to 300 days, the constant growth of data produced and exchanged will only push the MTTI and MTTC upwards. While digital signatures have already proven their use in identifying such corruption, there is still a need for formal data traceability framework to track data exchange across large and complex networks of organizations to identify and contain the propagation of corrupted data. This thesis analyses existing cybersecurity frameworks, their limitations, and introduces a new standard-based framework, in the form of an extended NIST CSF profile, to prepare against, mitigate, manage, and track data manipulation attacks. This framework is also accompanied with implementation guidance to facilitate its adoption and implementation by organizations of all sizes
9

Chichignoud, Aurélien. "Approche méthodologique pour le maintien de la cohérence des données de conception des systèmes sur puce". Thesis, Université Paris-Saclay (ComUE), 2017. http://www.theses.fr/2017SACLS069/document.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Le développement de produits complexes demande la maintenance d'un grand nombre de documents interdépendants exprimés dans différents formats. Malheureusement, aujourd'hui, aucun outil et aucune méthodologie ne nous permettent pas de maintenir la cohérence et de propager systématiquement les changements entre ces documents. D'après les observations faites dans l'entreprise STMicroelectronics, lorsqu'un document est modifié, les développeurs doivent propager manuellement la modification à l'ensemble des documents impactés. Pour diverses raisons, ces changements peuvent ne pas être correctement appliqués, voir même ne pas être appliqués du tout. Les documents divergent alors peu à peu, impactant dramatiquement le temps de développement pour réaligner tous les documents. Nous proposons une méthodologie aidant les développeurs à maintenir systématiquement la cohérence entre les documents, basée sur le concept de description d'architecture introduit par l'ISO42010. Premièrement, un modèle est défini pour décrire formellement et complètement des correspondances (liens existants) entre des documents. Ce modèle est défini pour être indépendant des formats de documents, du cycle de développement et des méthodes de travail de l'entreprise. Deuxièmement, ces correspondances sont analysées afin d'aider les développeurs à maintenir la cohérence des documents en les informant lorsqu'un document est modifié. Un prototype mettant en œuvre l’approche proposée a été développé afin d’évaluer la méthodologie. 18 sujets se sont portés volontaires afin d’évaluer l'approche. Ces sujets ont été soumis à deux tests (avec et sans notre méthodologie) impliquant la correction d’incohérences ajoutées dans un ensemble de documents. Ces tests nous ont permis de dégager deux variables : le nombre d’incohérences corrigées et le temps moyen pour corriger les incohérences. Selon notre étude, l’utilisation de notre approche permet de corriger 5,5% d’incohérences en plus en un temps 3,3% plus faible
The development of highly complex products requires the maintenance of a huge set of inter-dependent documents, in various formats. Unfortunately, no tool or methodology is available today to systematically maintain consistency between all these documents. Therefore, according to observations made in STMicroelectronics, when a document changes, stakeholders must manually propagate the changes to the impacted set of dependent documents. For various reasons, they may not well propagate the change, or even may not propagate it at all. Related documents thereby diverge more and more over time. It dramatically impacts productivity to realign documents and make the very wide-ranging corpus of documents consistent. This paper proposes a methodology to help stakeholders to systematically maintain consistency between documents, based on the Architecture Description concept introduced by ISO42010. First, a model is defined to describe formally and completely correspondences between Architecture Description Elements of documents. This model is designed to be independent of documents formats, selected system development lifecycle and the working methods of the industry. Second, these correspondences are analyzed in case of document modification in order to help stakeholders maintaining global corpus consistency. A prototype has been developed, which implements the proposed approach, to evaluate the methodology. 18 subjects volunteered to evaluate the approach. These subjects made two tests (with and without our methodology) involving the correction of inconsistencies added in a set of documents. These tests allowed us to identify two variables: the number of inconsistencies corrected and the average time to correct the inconsistencies. According to our study, the use of the approach helps to correct 5.5% more inconsistencies in a time 3.3% lower
10

Ouertani, Mohamed Zied. "DEPNET : une approche support au processus de gestion de conflits basée sur la gestion des dépendances de données de conception". Phd thesis, Université Henri Poincaré - Nancy I, 2007. http://tel.archives-ouvertes.fr/tel-00163113.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Dans un contexte de performances de plus en plus exigeantes, la conception de produits est devenue une activité collaborative menée par des acteurs ayant différentes expertises. Une des caractéristiques de la conception collaborative est que les relations de précédence entre les activités créent des dépendances entre les données échangées. Dans un tel contexte, des conflits peuvent apparaître entre les acteurs lors de l'intégration de leurs propositions. Ces conflits sont d'autant plus amplifiés par la multiplicité des expertises et des points de vue des acteurs participant au processus de conception.
C'est à la gestion de ce phénomène, le conflit, que nous nous sommes intéressés dans le travail présenté dans ce mémoire, et plus particulièrement à la gestion de conflits par négociation. Nous proposons l'approche DEPNET (product Data dEPendencies NETwork identification and qualification) pour supporter au processus de gestion de conflits basée sur la gestion des dépendances entre les données. Ces données échangées et partagées entre les différents intervenants sont l'essence même de l'activité de conception et jouent un rôle primordial dans l'avancement du processus de conception.
Cette approche propose des éléments méthodologiques pour : (1) identifier l'équipe de négociation qui sera responsable de la résolution de conflit, et (2) gérer les impacts de la solution retenu suite à la résolution du conflit. Une mise en œuvre des apports de ce travail de recherche est présentée au travers du prototype logiciel DEPNET. Nous validons celui-ci sur un cas d'étude industriel issu de la conception d'un turbocompresseur.
11

Azzi, Rita. "Blockchain Adoption in Healthcare : Toward a Patient Centric Ecosystem". Electronic Thesis or Diss., Institut polytechnique de Paris, 2023. http://www.theses.fr/2023IPPAT053.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
L'écosystème de soins de santé évolue constamment, sous l'influence des avancées technologiques qui l'ont orienté vers des approches centrées sur le patient. Toutefois, cette transformation est associée à de nombreux défis en raison de la complexité inhérente et de la fragmentation du système de santé. Cette thèse présente une problématique à trois niveaux. Chaque niveau traite un défi de l'écosystème de soins de santé ayant une répercussion sur la santé des patients ou portant atteinte à leurs vies privées. Le premier défi abordé est celui des médicaments contrefaits ou falsifiés qui représentent une menace pour la santé publique. Le deuxième défi concerne la fragmentation des données de santé qui entrave la coordination des soins et nuit à l'efficacité clinique. Le troisième défi s'attaque à la confidentialité des données relatives aux patients, impliquant aussi la protection de leurs vies privées.La blockchain apparait comme une technologie prometteuse, capable de relever ces différents défis. Introduite dans l'écosystème de santé, la blockchain a le potentiel de renforcer la transparence, l'authentification, la sécurité et la fiabilité. Néanmoins, cette technologie s'accompagne également de son lot de défis. Cette thèse évalue les risques et opportunités liés à l'adoption de la blockchain dans l'écosystème de soins de santé. Nous commençons par une étude approfondie sur le rôle de la blockchain à améliorer la gestion de la chaîne d'approvisionnement et de la chaîne de prestation de soins de santé. Pour compléter cette approche théorique, nous intégrons des applications concrètes du monde réel afin d'élaborer les exigences nécessaires à établir une chaine d'approvisionnement basée sur la blockchain. Notre troisième contribution, présente une approche axée sur le patient, où nous combinons la technologie blockchain et les technologies du Web sémantique pour aider les patients à gérer leurs données de santé. Notre quatrième contribution s'inscrit dans le cadre de la gouvernance des données. Nous développons un Framework basé sur la blockchain pour améliorer la sécurité des données et qui par la suite pourra être adopter dans divers domaines
The healthcare sector evolves constantly, driven by technological advancement and innovative solutions. From remote patient monitoring to the Internet of Things (IoT), Artificial Intelligence (AI), personalized medicine, mobile health, and electronic records systems, technology has improved patient outcomes and enhanced care delivery. These technologies have shifted the healthcare ecosystem to be more patient-centered, focusing on meeting the patient's needs rather than the needs of the individual organizations within it. However, this transformative shift experienced by the healthcare industry is associated with multiple challenges due to the inherent complexity and fragmentation of the healthcare ecosystem. This dissertation addresses three healthcare ecosystem challenges that significantly impact patients. The first challenge addressed is the problem of counterfeit or falsified drugs that represent a threat to public health, resulting from the vulnerabilities in the pharmaceutical supply chain, notably centralized data management and the lack of transparency. The second challenge addressed is the problem of healthcare data fragmentation that thwarts care coordination and impacts clinical efficiency. This problem results from the dynamic and complex patients' journey in the healthcare system, shaped by their unique health needs and preferences. Patient data are scattered across multiple healthcare organizations within centralized databases and are ruled by policies that hinder data sharing and patients' empowerment over their data. The third challenge addressed is the confidentiality and privacy of healthcare data that, if compromised, shatter the trust relationship between patients and healthcare stakeholders. This challenge results from the healthcare organizations' poor data governance that increases the risk of data breaches and unauthorized access to patient information.The blockchain has emerged as a promising solution to address these critical challenges. It was introduced into the healthcare ecosystem with the promise of enforcing transparency, authentication, security, and trustworthiness. Through comprehensive analysis and case studies, this dissertation assesses the opportunities and addresses the challenges of adopting the blockchain in the healthcare industry. We start with a thorough review of the state of the art covering the blockchain's role in improving supply chain management and enhancing the healthcare delivery chain. Second, we combine theoretical and real-world application studies to develop a guideline that outlines the requirements for building a blockchain-based supply chain. Third, we propose a patient-centric framework that combines blockchain technology with Semantic technologies to help patients manage their health data. Our fourth contribution presents a novel approach to data governance by developing a blockchain-based framework that improves data security and empowers patients to participate actively in their healthcare decisions. In this final contribution, we widen the scope of the proposed framework to include a roadmap for its adoption across diverse domains (banking, education, transportation, and logistics, etc.)
12

Derville, Alexandre. "Développement d'algorithmes de métrologie dédiés à la caractérisation de nano-objets à partir d'informations hétérogènes". Thesis, Université Grenoble Alpes (ComUE), 2018. http://www.theses.fr/2018GREAM082/document.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Ces travaux de thèse s’inscrivent dans le contexte technico/économique des nanomatériaux notamment les nanoparticules et les copolymères. Aujourd’hui, une révolution technologique est en cours avec l’introduction de ces matériaux dans des matrices plus ou moins complexes présentes dans notre quotidien (santé, cosmétique, bâtiment, agroalimentaire...). Ces matériaux confèrent à ces produits des propriétés uniques (mécanique, électrique, chimique, thermique, ...). Cette omniprésence associée aux enjeux économiques engendre deux problématiques liées au contrôle des procédés de fabrication et à la métrologie associée. La première est de garantir une traçabilité de ces nanomatériaux afin de prévenir tout risque sanitaire et environnemental et la seconde est d’optimiser le développement des procédés afin de pérenniser des filières économiques rentables. Pour cela, les deux techniques les plus courantes de métrologie utilisées sont : la microscopie électronique à balayage (MEB) et la microscopie à force atomique (AFM).Le premier volet des travaux est consacré au développement d’une méthodologie de fusion de données permettant d’analyser automatiquement les données en provenance de chaque microscope et d’utiliser leurs points forts respectifs afin de réduire les incertitudes de mesure en trois dimensions. Une première partie a été consacrée à la correction d’un défaut majeur d’asservissement de l’AFM qui génère des dérives et/ou sauts dans les signaux. Nous présentons une technique dirigée par les données permettant une correction de ces signaux. La méthode présentée a l’avantage de ne pas faire d’hypothèses sur les objets et leurs positions. Elle peut être utilisée en routine automatique pour l’amélioration du signal avant l’analyse des objets.La deuxième partie est consacrée au développement d’une méthode d’analyse automatique des images de nanoparticules sphériques en provenance d’un AFM ou d’un MEB. Dans le but de développer une traçabilité en 3D, il est nécessaire d’identifier et de mesurer les nanoparticules identiques qui ont été mesurées à la fois sur l’AFM et sur le MEB. Afin d’obtenir deux estimations du diamètre sur la même particule physique, nous avons développé une technique qui permet de mettre en correspondance les particules. Partant des estimations pour les deux types de microscopie, avec des particules présentes dans les deux types d'images ou non, nous présentons une technique qui permet l'agrégation d’estimateurs sur les populations de diamètres afin d'obtenir une valeur plus fiable des propriétés du diamètre des particules.Le second volet de cette thèse est dédié à l’optimisation d’un procédé de fabrication de copolymères à blocs (structures lamellaires) afin d’exploiter toutes les grandeurs caractéristiques utilisées pour la validation du procédé (largeur de ligne, période, rugosité, taux de défauts) notamment à partir d’images MEB afin de les mettre en correspondance avec un ensemble de paramètres de procédé. En effet, lors du développement d’un nouveau procédé, un plan d’expériences est effectué. L’analyse de ce dernier permet d’estimer manuellement une fenêtre de procédé plus ou moins précise (estimation liée à l’expertise de l’ingénieur matériaux). L’étape est réitérée jusqu’à l’obtention des caractéristiques souhaitées. Afin d’accélérer le développement, nous avons étudié une façon de prédire le résultat du procédé de fabrication sur l’espace des paramètres. Pour cela, nous avons étudié différentes techniques de régression que nous présentons afin de proposer une méthodologie automatique d’optimisation des paramètres d’un procédé alimentée par les caractéristiques d’images AFM et/ou MEB.Ces travaux d’agrégations d’estimateurs et d’optimisation de fenêtre de procédés permettent d’envisager le développement d’une standardisation d’analyse automatique de données issues de MEB et d’AFM en vue du développement d’une norme de traçabilité des nanomatériaux
This thesis is included in the technical and economical context of nanomaterials, more specifically nanoparticles and block copolymer. Today, we observe a technological revolution with the introduction of these materials into matrices more or less complex present in our daily lives (health, cosmetics, buildings, food ...). These materials yield unique properties to these products (mechanical, electrical, chemical, thermal ...). This omnipresence associated with the economic stakes generates two problems related to the process control and associated metrology. The first is to ensure traceability of these nanomaterials in order to prevent any health and environmental risks and the second is to optimize the development of processes in order to sustain profitable economic sectors. For this, the two most common metrology techniques used are: scanning electron microscopy (SEM) and atomic force microscopy (AFM).The first phase of the work is devoted to the development of a data fusion methodology that automatically analyzes data from each microscope and uses their respective strengths to reduce measurement uncertainties in three dimensions. A first part was dedicated to the correction of a major defect of the AFM which generates drifts and / or jumps in the signals. We present a data-driven methodology, fast to implement and which accurately corrects these deviations. The proposed methodology makes no assumption on the object locations and can therefore be used as an efficient preprocessing routine for signal enhancement before object analysis.The second part is dedicated to the development of a method for automatic analysis of spherical nanoparticle images coming from an AFM or a SEM. In order to develop 3D traceability, it is mandatory to identify and measure the identical nanoparticles that have been measured on both AFM and SEM. In order to obtain two estimations of the diameter on the same physical particle, we developed a technique that allows to match the particles. Starting from estimates for both types of microscopy, with particles present in both kinds of images or not, we present a technique that allows the aggregation of estimators on diameter populations in order to obtain a more reliable value of properties of the particle diameter.The second phase of this thesis is dedicated to the optimization of a block copolymer process (lamellar structures) in order to capitalize on all the characteristic quantities used for the validation of the process (line width, period, roughness, defects rate) in particular from SEM images for the purpose of matching them with a set of process parameters.Indeed, during the development of a new process, an experimental plan is carried out. The analysis of the latter makes it possible to manually estimate a more or less precise process window (estimate related to the expertise of the materials engineer). The step is reiterated until the desired characteristics are obtained. In order to accelerate the development, we have studied a way of predicting the result of the process on the parameter space. For this, we studied different regression techniques that we present to propose an automatic methodology for optimizing the parameters of a process powered by AFM and / or SEM image characteristics.This work of estimator aggregation and process window optimization makes it possible to consider the development of a standardization of automatic analysis of SEM and AFM data for the development of a standard for traceability of nanomaterials
13

Zwolinska, Monika. "Sécurité et libertés fondamentales des communications électroniques en droit français, européen et international". Thesis, Nice, 2015. http://www.theses.fr/2015NICE0038/document.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
L’impact des technologies d'information et de communication est essentiel sur lesdroits de la personne, et en particulier la liberté d'expression et la protection de la vie privée. Les tensions relatives à l’établissement de la frontière entre l’espace public et l’espace privé en ligne se sont exacerbées avec la diffusion de l'informatique et la démocratisation des usages d'Internet, de la téléphonie mobile et, plus récemment, d'autres objets communicants et services numériques. De même, les libertés de s’exprimer, de communiquer et de s’informer sont mises en danger dans la mesure où, sous prétexte de la lutte contre la cybercriminalité et le cyberterrorisme, et dans un but général de maintien de l’ordre public, les autorités publiques interviennent dans les contenus publiés pour les contrôler, surveiller, restreindre ou interdire. Ceci d’autant plus que les capacités - tant des Etats que des acteurs privés - à constituer les bases de données extrêmement précises répertoriant les informations sur les habitudes de consommation, les itinéraires de déplacements ou encore sur les opinions ou pensées des personnes, augmentent progressivement. Ainsi, le besoin de la redéfinition de la manière dont est pris en compte le volet relatif au respect des droits fondamentaux des personnes face à l’environnement numérique devient pressant
The impact of today’s information and communication technologies is essential forthe exercice of human rights, particularly concerning freedom of expression and privacyprotection. With the massive use of Internet, mobile phones and – more recently – other smart objects and digital services, the tension mounts with respect to establishing the limit between public and private space online. Likewise, the freedom of expression, communication and information are at risk as - under the pretext of fighting cybercrime and cyber terrorism, as well as maintaining public order - public authorities interfere with online contents by controlling, monitoring, restraining or prohibiting it. Especially as both States’ and private companies’ capacities in creating extremely precise databases identifying information on persons’ consumption habits, itineraries, thoughts and opinions gradually increase. Therefore, the need to redefine the way in which the respect of fundamental freedoms is taken into consideration in the context of digital environment becomes urgent
14

Schmidt, Loïc. "Passage à l'échelle des intergiciels RFID pour l'informatique diffuse". Thesis, Lille 1, 2010. http://www.theses.fr/2010LIL10155/document.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Selon le concept de l'Internet des Objets (IoT), chaque objet manufacturé se voit attribuer un identifiant unique se présentant sous forme d'une étiquette RFID (Radio Frequency Identification). L'arrivée de ces RFID dans le processus de gestion des biens soulève des problématiques techniques telles que leur intégration dans l'Internet qui permettra d'accéder aux informations relatives à l'objet identifié, recueillies durant sa vie. En effet, avec l'expansion d'une telle technologie, l'architecture de cet IoT doit être capable de passer à l'échelle et doit fournir un moyen efficace de gérer ces informations. Afin de faciliter le développement et le déploiement de solutions RFID, des standards ont été mis en place par EPCGlobal définissant les interfaces d'un intergiciel RFID : un composant filtrant et agrégeant les évènements issus des lecteurs (ALE), un composant stockant ces données (EPCIS), un composant permettant de retrouver ces bases de données (ONS), etc.Nous proposons une solution de distribution de ces différents composants utilisant les techniques des tables de hachages distribuées. Nous présentons un composant ALE distribué, qui offre la possibilité d'interroger n'importe quel lecteur partagé du réseau ainsi qu'une solution pour l'interrogation des EPCIS de façon efficace, sans surcharger le réseau. Étant donné l'importance du système d'ONS, qui est à l'IoT ce que le DNS est à l'Internet, nous avons exploré une solution alternative à celle des DNS afin de distribuer ce composant. Nos solutions permettent un passage à l'échelle efficace de l'intergiciel d'EPCGlobal, offrant un intergiciel générique pour l'informatique diffuse
Following the Internet of Things (IoT) concept, each manufactured object is associated with an RFID tag (Radio Frequency IDentification) embedding a unique identifier. The incoming of this RFID in the management of goods process rises technical issues such as their integration into the Internet allowing to access object related information gathered along its life. Indeed, with the spreading of this technology, the architecture of this IoT must be scalable and must provide an efficient way for managing these informations. In order to facilitate the development and the deployment of RFID solutions, standards have been ratified by EPCGlobal specifying interfaces for an RFID middleware: a component filtering and collecting events coming from readers (ALE), a component stocking these informations (EPCIS), a component allowing to retrieve these databases (ONS), ...We propose a distributed solution of these different components by using the distributed hash tables technology. We present a distributed ALE component that provides a way to interrogate every shared reader in the network, and a solution to query and retrieve informations from EPCIS in a efficient manner, without overloading the network. Considering the importance of the ONS system, which is to IoT what DNS is to Internet, we have explored an alternate solution to the DNS one in order to distribute this component. Our solutions offer an efficient scalability to the EPCGlobal middleware, providing a generic middleware for ubiquitous computing
15

Es, soufi Widad. "Modélisation et fouille des processus en vue d'assister la prise de décisions dans le contexte de la conception et la supervision des systèmes". Thesis, Paris, ENSAM, 2018. http://www.theses.fr/2018ENAM0067/document.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
L'industrie actuelle est en plein développement suite à la mise en œuvre du concept de l'industrie 4.0 visant à rendre l'usine une entité intelligente, en combinant les processus et pratiques industriels avec les technologies de l'information et de communication récentes comme les systèmes cyber-physiques et l'internet des objets connectés (IoT), entre autres. Ce développement industriel, ainsi que le besoin d'innover pour atteindre et maintenir la compétitivité favorisent une augmentation phénoménale du volume de données (connue sous le nom de Big Data), rendant ainsi (i) les processus de conception et de supervision des systèmes de plus en plus chaotiques, (ii) les données au sein des organisations de plus en plus difficiles à exploiter et (iii) les ingénieurs de plus en plus perdus lors de la prise de décision. En effet, plusieurs problèmes sont identifiés dans les milieux industriels et qui peuvent être classés en trois catégories : (i) difficultés lors de la recherche, la visualisation et l'échange de l'information, (ii) difficultés lors de la prise de décision et (iii) difficultés lors de la gestion des changements de contexte. A travers ce travail, nous proposons un système d'aide à la décision intelligent et modulaire, dont chacun des quatre modules résout un des problèmes identifiés. Les modules de modélisation et de traçabilité des processus permettent de modéliser les processus et de capturer la façon comment ils sont exécutés. Le module d'aide à la décision permet de proposer le pattern le plus adapté au contexte de la décision ainsi que les paramètres de ses activités les plus significatifs. Le module de gestion des changements contextuels permet de continuellement mettre à jour le module de prise de décision, lui permettant ainsi de tenir compte de l'aspect dynamique du contexte. Le système proposé est entièrement vérifié et à moitié validé dans le contexte du projet Gontrand, visant la supervision intelligente et en temps réel des réseaux de gaz favorisant l'injection du gaz vert. Pour qu'il soit entièrement validé, les performances du système doivent être analysées après l'intégration et l'exploitation de ce dernier dans un milieu industriel réel
Data sets are growing rapidly because of two things. First, the fourth industrial revolution that aims to transform factories into smart entities in which cyber physical systems monitor the physical processes of the factory. Second, the need to innovate in order to achieve and maintain competitiveness. Due to this huge volume of data (Big Data), (i) design and supervision processes are becoming chaotic, (ii) data within organizations is increasingly becoming difficult to exploit and (iii) engineers are increasingly lost when making decisions. Indeed, several issues are identified in industry: (i) when researching, visualizing and exchanging information, (ii) when making decisions and (iii) when managing contextual changes. Through this research work, we propose an Intelligent and modular Decision Support System (IDSS), where each of the four modules solves one of the identified issues. Process modelling and traceability modules aim to model processes and capture how they are actualy executed. The decision support module proposes the process patterns that best fit the decision context, as well as their most significant activity parameters. The contextual change management module continuously updates the decision-making module, in order to handle the dynamic aspect of the decision context. The proposed system is fully verified and half-validated in the context of the Gontrand project, aiming at intelligent and real-time supervision of gas networks favoring the injection of green gas. In order to be fully validated, the performance of the system must be analyzed after integrating and exploitating it in a real industrial environment
16

Bertin, Ingrid. "Conception des bâtiments assurant leur réversibilité, leur déconstruction et leur réemploi, méthodologie de suivi et évaluation environnementale sur les cycles de vie". Thesis, Paris Est, 2020. http://www.theses.fr/2020PESC1041.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Dans un contexte de pression environnementale intense où le secteur de la construction dans le monde a le plus grand impact sur plusieurs indicateurs, le réemploi des éléments porteurs est le plus prometteur pour éviter significativement la production de déchets, préserver les ressources naturelles et réduire les émissions de gaz à effet de serre par la diminution de l'énergie grise. Cette thèse porte donc sur trois principaux axes de recherches : 1. l’amélioration de la conception structurale par des typologies favorables en définissant le DfReu (Design for Reuse) afin d’anticiper la mise en œuvre d’éléments porteurs (verticaux et horizontaux) démontables et réemployables en fin de vie, d’allonger leur durée de vie, in fine en augmentant le stock d’éléments disponibles au réemploi 2. le développement d’une méthodologie pour la mise en place d’une traçabilité renforcée et pérenne autour d’une banque de matériaux et du BIM afin de disposer de toutes les caractéristiques, notamment physico-mécaniques, des éléments porteurs et de faciliter les processus de réemploi et l’engagement d’une nouvelle responsabilité pour l’ingénieur réemployeur 3. L’identification des paramètres clés influençant les impacts environnementaux propres au réemploi et le développement d’analyses de sensibilité, permettant une meilleure compréhension des conséquences de ce processus et de sa prise en compte lors de la conception, appuyant l’aide à la décision. Une expérimentation fondée sur des portiques démonstrateurs en béton armé a permis de corroborer ces trois axes en générant des données manquantes dans la littérature. Cette analyse pratique de l’assemblage poteau-poutre a produit des données techniques sur le comportement structural après réemploi, mais aussi des données environnementales de mise en œuvre et déconstruction. Ce travail propose alors une méthodologie fondée sur une chaîne d'outils pour permettre aux ingénieurs de concevoir des assemblages réversibles au sein d’une structure réemployable, de pérenniser les informations nécessaires dans la maquette BIM doublées d’une traçabilité physique, de mettre en place une banque de matériaux et d’optimiser la conception à partir d’un stock d’éléments porteurs. L’étude distingue ainsi la "conception avec un stock" qui vise à intégrer le plus grand nombre possible d'éléments disponibles, de la "conception à partir d'un stock" qui conduit au réemploi de 100% des éléments et propose ainsi un nouveau paradigme pour le concepteur. Parallèlement, les impacts environnementaux du processus de réemploi sont étudiés à partir d’une analyse du cycle de vie (ACV). Une analyse de sensibilité déclinant, entre autres, le nombre d’usages et la durée de vie, en comparaison de constructions neuves équivalentes, permet de mieux appréhender les domaines d'intérêt du DfReu. La prise en compte de critères spécifiques à l’économie circulaire dans le bâtiment complète la définition des critères de réemployabilité. L’étude environnementale montre finalement dans quelles conditions le réemploi diminue l’impact d’un bâtiment, et identifie les paramètres clés. Les résultats obtenus s’adressent en premier lieu aux ingénieurs structure mais plus largement aux concepteurs membres de la maîtrise d’œuvre : architectes, ingénieurs et bureaux d’études spécialisés en environnement, afin de proposer et d’inciter l’étude de variantes anticipant la réemployabilité des bâtiments nouvellement conçus. Les résultats sont, par extension, également exploitables dans les projets intervenant sur l’existant
In a context of strong environmental pressure in which the construction sector has the greatestimpact, the reuse of the load-bearing elements is the most promising as it significantly avoidswaste production, preserves natural resources and reduces greenhouse gas emissions by cuttingdown on embodied energy.This thesis consequently covers three main areas of research:1. Improvement of structural design through expedient typologies by defining the DfReu(Design for Reuse) in order to anticipate the use of load-bearing elements (vertical andhorizontal), that can be dismantled and reused at the end of their service life to extendtheir lifespan, ultimately increasing the stock of available elements for reuse.2. Development of a methodology for the implementation of a reinforced and long-lastingtraceability centered on a materials bank with the use of BIM in order to secure all thecharacteristics, in particular physico-mechanical, of the load-bearing elements and tofacilitate the reuse processes as well as the commitment of a new responsibility for thereuse engineer.3. Identification of the key parameters influencing the environmental impacts of reuse anddevelopment of sensitivity study, allowing a better comprehension of the consequencesof this process and its consideration in design to support to decision making.An experiment based on reinforced concrete demonstration portals frames has enabledcorroboration of these three lines of research by generating missing data in literature. Thispractical analysis of column-beam assembly has generated technical data on the structuralbehavior after reuse, but also environmental data for implementation and deconstruction.This research offers subsequently a methodology based on a chain of tools to enable engineersto design reversible construction assemblies within a reusable structure, to secure the necessaryinformation in the BIM model coupled with physical traceability, to build a bank of materials andto enhance design through a stock of load-bearing elements. The study thus distinguishes"design with a stock" which aims to combine as many available elements as possible, from"design from a stock" which leads to the reuse of 100% of the elements and thus presents a newparadigm for the designer.At the same time, the environmental impacts of the reuse process are studied using a life cycleassessment (LCA). A sensitivity study, based among other things on the number of uses and thelifespan, in comparison to equivalent new constructions, provides a better understanding of theareas of interest of the DfReu. Consideration of criteria specific to the circular economy inbuildings completes the definition of reuse criteria. In the end, environmental studies establishunder which conditions reuse reduces the impact of a building and identify the key parameters.The results obtained are primarily intended for structural engineers but more broadly fordesigners part of the project management: architects, engineers and environmental designoffices, in order to offer and encourage the study of variants anticipating the reusability of newlydesigned buildings. By extension, the results can also be used in projects involving existingbuildings
17

Lepage, Yves. "Traçabilité modulée pour la conformité à Sarbanes-Oxley". Mémoire, 2009. http://www.archipel.uqam.ca/2484/1/M11144.pdf.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
La traçabilité est un mécanisme qui est indispensable dans la conduite des activités de vérification de la conformité des compagnies à la loi Sarbanes-Oxley. Cette loi rend les administrateurs (PDG, Chef des affaires financières, etc.) responsables des déclarations faites dans les états financiers. Elle a été établie dans la foulée des scandales corporatifs aux États-Unis, comme ceux des compagnies Enron et Worldcom. Les données utilisées pour produire les états financiers, lesquelles sont produites par des systèmes informatiques périphériques, transitent toujours par des bases de données. L'implantation d'un mécanisme de traçabilité des bases de données se heurte à plusieurs problèmes, dont le plus important est la gestion du volume des données de traçabilité, lequel devient rapidement trop important pour rendre les données de traçabilité utiles. Ce mémoire démontre qu'une solution envisageable pour résoudre ce problème consiste à identifier et à définir les comportements typiques de la fraude et d'utiliser ces comportements comme indicateurs de fraude potentielle. Jumelés à des techniques de classification telles que la classification Baysienne qui est utilisée dans le domaine de la détection du pourriel, les indicateurs permettront la classification des transactions potentiellement frauduleuses, dans le but d'appliquer le mécanisme de traçabilité qu'à ces transactions. Ainsi, nous démontrons que l'application de la classification Baysienne sur ces attributs, permet effectivement de détecter et de classifier des transactions frauduleuses comme tel et qu'en conséquence, un traitement de traçage spécifique peut être effectué sur ces transactions. En ne traçant plus spécifiquement que les transactions identifiées comme frauduleuses, le volume de données de traçabilité est alors réduit à son expression la plus utile et simple et du coup le problème de la gestion du volume des données de traçage s'en trouve d'autant diminué. Notre expérimentation démontre le bien-fondé de cette approche pour différencier les transactions honnêtes des transactions frauduleuses. Cette différenciation s'est faite avec un haut taux de succès et avec grande fiabilité, tel que démontré par les taux de détection obtenus pour les transactions frauduleuses. Les résultats détaillés sont documentés dans ce mémoire et prouvent la viabilité de cette approche. Comme les attributs utilisés qui sont basés sur les indicateurs de comportements sont intimement liés au domaine d'application, nous proposons une approche pour raffiner les résultats et ainsi rendre possible la différenciation des différents types de fraude à l'intérieur de ces transactions frauduleuses. ______________________________________________________________________________ MOTS-CLÉS DE L’AUTEUR : Fraude, Sarbanes-Oxley, Traçabilité, Détection automatique, Classification, Bayes.

Vai alla bibliografia