Siga este enlace para ver otros tipos de publicaciones sobre el tema: Exigences des modèles de confiance.

Tesis sobre el tema "Exigences des modèles de confiance"

Crea una cita precisa en los estilos APA, MLA, Chicago, Harvard y otros

Elija tipo de fuente:

Consulte los 50 mejores tesis para su investigación sobre el tema "Exigences des modèles de confiance".

Junto a cada fuente en la lista de referencias hay un botón "Agregar a la bibliografía". Pulsa este botón, y generaremos automáticamente la referencia bibliográfica para la obra elegida en el estilo de cita que necesites: APA, MLA, Harvard, Vancouver, Chicago, etc.

También puede descargar el texto completo de la publicación académica en formato pdf y leer en línea su resumen siempre que esté disponible en los metadatos.

Explore tesis sobre una amplia variedad de disciplinas y organice su bibliografía correctamente.

1

Abidi, Rihab. "Smart Rοad Signs based trust management mοdels fοr cοοperative Ιntellgent Τranspοrtatiοn Systems". Electronic Thesis or Diss., Normandie, 2024. http://www.theses.fr/2024NORMR111.

Texto completo
Resumen
L'augmentation de la complexité des systèmes de circulation urbaine a rendu la congestion un défi majeur, entraînant des impacts économiques, environnementaux et sociaux considérables. Les Systèmes de Transport Intelligents (STIs) sont apparus comme une solution prometteuse pour atténuer ces défis en permettant une gestion dynamique du trafic. Cependant, la fiabilité des données au sein des STIs représente un enjeu de plus en plus important. L'introduction de données erronées par des capteurs défectueux ou malveillants peut entraîner des dysfonctionnements ou des perturbations intentionnelles du système. Dans ce contexte, les modèles de gestion de la confiance revêtent une importance cruciale.La plupart des modèles de confiance existants proposent des approches centrées sur les véhicules. Cependant, la forte mobilité et la nature dynamique des environnements des STIs affectent la stabilité et la scalabilité de ces systèmes. En conséquence, la proposition de nouveaux modèles de confiance conçus spécifiquement pour les STIs, afin d'améliorer la précision, la sécurité, la scalabilité et la stabilité de la diffusion des informations sur le trafic, constitue l'objectif global de cette thèse.Tout d'abord, nous avons proposé une architecture générique pour un cadre de modèle de gestion de la confiance, exploitant les Smart Road Signs (SRSs). La conception de cette architecture repose sur une étude approfondie de l'état de l'art. Cette architecture a ensuite été développée pour proposer deux nouveaux modèles de confiance. Le premier modèle, considère les informations contextuelles et l'agrégation. De plus, ce modèle prend en compte les informations contextuelles et l'agrégation des données provenant de multi-sources pour évaluer la fiabilité des événements de trafic signalés aux SRSs et des différents nœuds du réseau. De plus, le modèle applique une évaluation de confiance à deux niveaux en combinant l'inférence Bayésienne et une approche de somme pondérée dynamique. En outre, une inférence bayésienne basée sur la prédiction a été proposée pour améliorer la précision de l'évaluation de la confiance.Par la suite, un modèle de confiance en communication a été proposé, pour compléter la contribution précédente, en utilisant des métriques de Quality of Service (QoS) pour évaluer le comportement des SRSs. Ce modèle introduit un modèle de confiance auto-organisé pour suivre les comportements des SRSs et établir des environnements stables en utilisant Dempster Shafer Theory (DST) basée sur la logique floue. En effet, nous considérons un scénario plus réaliste où tous les nœuds sont vulnérables aux attaques et aux pannes. Ainsi, l'objectif principal de ce modèle est de garantir que le système reste opérationnel même dans des environnements hostiles, en atténuant la vulnérabilité des architectures de réseau centralisées, qui est le point de défaillance unique.Les modèles proposés ont été validés par des simulations, démontrant leur efficacité dans l'identification des nœuds malveillants et la réduction des rapports de trafic erronés. Les résultats montrent que la prise en compte de l'agrégation de données provenant de multi-sources et des informations contextuelles augmente la précision de l'évaluation de la confiance. De plus, l'adoption d'un modèle basé sur l'infrastructure, exploitant une architecture décentralisée et hiérarchique, améliore l'évolutivité et la stabilité des modèles de confiance, ce qui est adapté à un tel environnement
The increasing complexity of urban traffic systems has made congestion a significant challenge, leading to severe economic, environmental, and social impacts. Intelligent Transportation Systems (ITSs) have emerged as a promising solution to mitigate these challenges by enabling dynamic traffic management. However, the reliability of data within ITSs represents an increasingly significant challenge. The introduction of erroneous data by defective or malicious sensors can lead to malfunctions or intentional disruptions of the system. In this context, trust management models assume a crucial importance.Most of the existing trust models propose vehicle-centric approaches. However, the high mobility and dynamic nature of the ITS environments affects the stability and scalabity of such systems. Accordingly, proposing novel trust models designed specifically for ITSs to enhance the accuracy, security, scalability and stabilty of traffic information dissemination constitutes the overall goal of this thesis.First, we proposed a generic architecture for a trust framework, leveraging Smart Road Signs (SRSs). The conception of this architecture was built upon the output of a deep investigation of the state of the art. This framework has been, then, developed to propose two novel trust models. The first model, considers the contextual information and multi-source data aggregation to assess the trustworthiness of reported traffic events and the different nodes of the network. Additionally, the model applies a bi-level trust evaluation combining Bayesian Inference and a dynamic weighted sum approach. Furthermore, a predictive-based Baysian Inference was proposed to enhance the accuracy of trust evaluation. Thereafter, a communication trust model was proposed, to complement the previous contribution, using Quality of Service (QoS) metrics to evaluate the SRSs behaviour. This model introduces a self-organizing trust model to track the SRSs' behaviours and establishes stable environments using a fuzzy-based Dempster Shafer Theory (DST). In fact, we consider a more realistic scenario where all the nodes are vulnerable to attacks and failure. Thus, the main objective of this model is to ensure that the system remains operational even in hostile environments, by mitigating the inherent single point of failure vulnerability characteristic of centralized network architectures.\\The proposed models were validated through simulations, showing their effectiveness in identifying malicious nodes and mitigating erroneous traffic reports. The results demonstrate that considering multi-source data aggregation and context-aware information increases the accuracy of trust evaluation. Furthermore, the adoption of an infrastructure-based framework leveraging a decentralized and hierarchical architecture enhances the scalability and stability of the trust models, which is suitable for such environment
Los estilos APA, Harvard, Vancouver, ISO, etc.
2

Humbert, Sophie. "Déclinaison d'exigences de sécurité, du niveau système vers le niveau logiciel, assistée par des modèles formels". Bordeaux 1, 2008. http://www.theses.fr/2008BOR13580.

Texto completo
Resumen
Les turbomoteurs d'hélicoptère incluent des logiciels de contrôle de plus en plus élaborés et complexes. Pour répondre aux exigences de sécurité de ce type de système, il convient de décliner précisément les exigences système en exigences logicielles. Nos travaux ont porté sur l'amélioration de cette phase de déclinaison d'exigences. Nous proposons une démarche en deux étapes. La première consiste à modéliser, en language AltaRIca, les propagations de pannes potentielles de composants du système, en intégrant des hypothèses de modes de défaillance sur les parties matérielles et logicielles. L'analyse de ce modèle permet d'évaluer la sûreté de l'architecture du système envisagée, et de déduire des exigences élémentaires, en particulier sur les fonctions logicielles. Ces exigences imposent que certains comportements logiciels ne se produisent pas. La seconde étape porte sur le raffinement de ces exigences afin de les rendre vérifiables sur le modèle de conception SCADE du logiciel.
Los estilos APA, Harvard, Vancouver, ISO, etc.
3

Brottier, Erwan. "Acquisition et analyse des exigences pour le développement logiciel : une approche dirigée par les modèles". Phd thesis, Université Rennes 1, 2009. http://tel.archives-ouvertes.fr/tel-00512174.

Texto completo
Resumen
Dans cette thèse, nous nous intéressons à la définition d'une plate-forme industrielle favorisant une meilleure intégration des techniques de vérification et de validation des exigences au sein des processus de développement. Cette plate-forme, appelée R2A (pour Requirements To Analysis) est entièrement construite à l'aide de technologies issues de l'ingénierie dirigée par les modèles. Le cœur de la plate-forme est un processus de composition de modèles à deux niveaux de modélisation. Au niveau instance, il produit une spécification globale des exigences à partir d'une collection de spécifications d'exigences partielles, hétérogènes et potentiellement incohérentes. Au niveau de la conception de la plate-forme (niveau meta), il produit le formalisme interne de la plate-forme (types d'information pouvant être capturée et fonctionnalités supportées) à partir de composants de conception embarquant des sémantiques opérationnelles, de composition et de déploiement. Ce processus favorise l'adaptabilité de la plate-forme à des contextes industriels variés. L'obtention d'une spécification globale des exigences (i) autorise l'application des techniques modernes de vérification et de validation pour la détection d'incohérences et (ii) favorise une approche de développement dirigée par les modèles (MDD) dès les premières étapes du développement logiciel (synchronisation exigences et artefacts de développement aval). Dans sa version actuelle, la plate-forme est spécialisée pour le contexte industriel de France Télécom. Elle supporte quatre langages de description des exigences : les diagrammes d'activité et de classes UML, un langage naturel contraint (le RDL, pour Requirements Description Language) et son formalisme interne (le RM, pour Requirements Metamodel). Les fonctionnalités principales sont (i) la génération d'objectifs de test système, (ii) la production d'une première spécification d'analyse et (iii) la vérification de la cohérence des exigences.
Los estilos APA, Harvard, Vancouver, ISO, etc.
4

Gam, El Golli Inès. "Ingéniérie des exigences pour les systèmes d'information décisionnels : concepts, modèles et processus - la méthode CADWE". Phd thesis, Université Panthéon-Sorbonne - Paris I, 2008. http://tel.archives-ouvertes.fr/tel-00363878.

Texto completo
Resumen
La Business Intelligence (BI) se définit comme l'ensemble des technologies permettant de traiter, valoriser et présenter les données à des fins de compréhension et de décision. Elle donne aux dirigeants une visibilité sur la performance de leur entreprise afin d'améliorer la capacité de celle-ci à réagir plus rapidement que ses concurrents face à de nouvelles opportunités ou aux risques du marché. La BI s'appuie sur un système d'information spécifique appelé Système d'Information Décisionnel (SID), par opposition aux systèmes d'informations transactionnels. Les SID comportent plusieurs composants qui se résumaient autrefois en un entrepôt de données. Un entrepôt de données est une collection de données intégrées et historisées qui sont utilisées pour la prise de décisions stratégiques au moyen de techniques de traitement analytiques. La majeure partie des outils existants pour le développement des entrepôts de données se focalise sur la structure de stockage des données. L'intérêt est principalement porté à la définition de modèles « en étoile » ou « en flocons », d'intégrer des données provenant de sources hétérogènes, plus que de s'interroger sur les exigences des experts métiers. Considérer les exigences des experts métiers permettrait de développer des SID offrant une meilleure fiabilité dans la prise de décision. Par ailleurs, peu d'approches dirigées par les exigences sont proposées pour la conception des SID. Dans une approche d'ingénierie des exigences pour les SID, le principal but n'est pas de savoir « où » les données doivent être stockées mais « comment » elles devraient être structurées et « pourquoi » elles sont nécessaires. Le « pourquoi » n'est souvent pas connu et encore moins rattaché au « quoi ». Pourtant la prise en compte du « pourquoi » permettrait de justifier le choix des informations opérationnelles ‘justes nécessaires', modélisées et utilisées pour l'aide à la décision. En conséquence, la principale question de recherche à laquelle s'intéresse cette thèse est « comment spécifier les exigences des décideurs pour un système d'information décisionnel qui fournit l'information la plus adéquate». L'élément central de contribution de cette thèse est une méthode d'IE adaptée à un environnement décisionnel. Cette méthode comporte des modèles de produits et un processus qui guide la découverte des exigences et la conception du SID. Ce travail de recherche a également contribué à la définition d'une problématique qui touche directement les exigences du monde industriel et complète les recherches de la communauté scientifique, sa validation et sa résolution par la proposition d'une démarche méthodologique et un ensemble de quatre méta-modèles, quatre modèles et deux modèles complémentaires. La méthode proposée est nommé CADWE (Computer Aided Data Warehouse Engineering). Cette méthode exploite différentes sources pour découvrir les exigences d'un SID : les buts stratégiques de l'organisation, les objectifs stratégiques et tactiques des décideurs, les données des SI opérationnels existants et une base de composants réutilisables intentionnels et opérationnels. A partir de l'ensemble de ces ressources, le processus génère les schémas multidimensionnels du système cible. L'ensemble des éléments cités est le produit de l'implantation du SID. Le processus de la méthode CADWE se décompose en quatre phases qui ont pour but de (1) identifier les buts stratégiques, (2) exprimer les objectifs, (3) découvrir les exigences informationnelles et (4) définir le schéma multidimensionnel. Ce processus fait apparaitre que différents types d'exigences, rattachées à un SID, peuvent être recensées. Les exigences du SID peuvent être de quatre types : Les exigences stratégiques reliées à la stratégie de l'organisation, les exigences tactiques reliées à une perspective, les exigences opérationnalisables reliées à l'information recherchée et les exigences système reliées au système à concevoir. Ces quatre types d'exigences sont répertoriés en deux niveaux : Le niveau intentionnel et le niveau opérationnel. Enfin, la méthode proposée est illustrée au moyen d'une étude de cas industrielle.
Los estilos APA, Harvard, Vancouver, ISO, etc.
5

Gam, Inès. "Ingénierie des exigences pour les systèmes d'information décisionnels : concepts, modèles et processus : la méthode CADWE". Paris 1, 2008. http://www.theses.fr/2008PA010032.

Texto completo
Resumen
Les problèmes de découpe et de placement sont des problèmes combinatoires. Ils sont classés dans la catégorie des problèmes NP-Complets et admettent de nombreuses applications en industrie, en systèmes multiprogrammes et multiprocesseurs, ainsi que dans le placement de circuits intégrés. Ces problèmes se présentent lorsqu'on se propose d'optimiser l'utilisation d'une ou de plusieurs entités disponibles en y plaçant des sous entités prédéterminées. Dans le cas où l'on dispose d'une seule entité en stock, ces problèmes sont connus sous le nom de problèmes de découpe (non) contraints (non) pondérés à deux dimensions. Nous proposons dans cette thèse, plusieurs méthodes de résolution exactes et approchées, séquentielles e parallèle du problème de découpe et de placement à deux dimensions. La méthode exacte proposée s'appuie sur une méthode de séparation et évaluatio et opère par des constructions par pièces. Deux nouvelles bornes supérieures et inférieures sont proposées pour réduire l'espace de recherche. Nous proposons, également, plusieurs méthodes de résolution approchées. La première méthode combine une recherche par faisceaux et une construction p bandes. La deuxième méthode approchée est une méthode coopérative. Nous proposons un schéma de coopération entre l'algorithme GBS et une méthode complémentaire. La méthode complémentaire va contribuer à la découverte de nouvelles régions dans l'espace de recherche et à diversifier le chemins développes par GBS. La troisième méthode proposée est une adaptation de GBS pour le problème de découpe à trois dimensions. Finalement, nous proposons, deux méthodes de résolutions approchées parallèles pour le même problème.
Los estilos APA, Harvard, Vancouver, ISO, etc.
6

Bensimhon, Larry. "Excès de confiance et mimétisme informationnel sur les marchés d'actions". Paris 1, 2006. http://www.theses.fr/2006PA010081.

Texto completo
Resumen
Traditionnellement, la théorie financière a été principalement préoccupée, à travers les travaux menés sur l'efficience des marchés, par la question de la disponibilité de l'information. Le courant novateur de la finance comportementale, au contraire, redécouvre l'importanc du traitement par les agents de l'information dont ils disposent. En effet, le problème grandissant auquel font face les investisseurs sur le marchés est de donner une cohérence à l'ensemble des informations qu'ils reçoivent, de leur donner un poids relatif sur lequel ils vont fonder leurs décisions. L'objectif de ce travail est de déterminer les conséquences, sur les marchés, du succès ou de l'insuccès des investisseurs à définir un tel poids. La première partie de la thèse met en évidence, à travers l'étude des phénomènes de bulles et de krachs boursiers, l'existence de deux types d'information: une information privée et une information publique. Nous montrons, dans ce cadre, l'intérêt d'étudier plus précisément le rôle joué par la relation particulière liant les notions de mimétisme informationnel et d'excès de confiance. Une enquête menée auprès de professionnels des marchés permet de déterminer des indices « psychométriques» nous renseignant sur ces deux notions. La deuxième partie de la thèse présente une modélisation de cette relation par le biais de la théorie des cascades informationnelles de Bikhchandani, Hirshleifer et Welch (1992), que nous testons via la méthodologie expérimentale. Nos résultats montrent que la question du traitement de l'information, organisée en catégorie, est susceptible d'avoir un impact sur les prix de marchés et notamment sur les écarts prix/valeur.
Los estilos APA, Harvard, Vancouver, ISO, etc.
7

Dechartre, Philippe. "Les exigences de fonctionnement de l'entreprise : l'acteur doit-il devenir une donnée ou peut-il être un paramètre ?" Paris 9, 1993. https://portail.bu.dauphine.fr/fileviewer/index.php?doc=1993PA090038.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
8

Le, Pors Éric. "Interprétation sémantique des exigences pour l'enrichissement de la traçabilité et pour l'amélioration des architectures de systèmes complexes". Télécom Bretagne, 2010. http://www.theses.fr/2010TELB0127.

Texto completo
Resumen
L'augmentation de la complexité des systèmes à logiciel prépondérant, produits dans l'industrie, est liée à la complexité des ingénieries : réduction des délais, organisation des activités, gestion de la sous-traitance. . . Cette complexité est également due à l'augmentation du nombre de fonctions attendues et de données à traiter. Elle dépend de plus du nombre de composants logiciels et physiques devant interagir, soumis à des contraintes en termes de fonctionnalités et de qualité, ce qui implique une conception toujours plus difficile de ces systèmes. Afin de maîtriser leur production, un niveau d'expertise élevé est requis dans des domaines toujours plus nombreux. Cette connaissance doit, de plus, être partagée par de nombreuses équipes collaborant à la spécification et à la réalisation d'entités distinctes et spécifiques du système. Le processus d'ingénierie des systèmes décrit les phases de réalisation, depuis l'analyse du besoin opérationnel, passant par l'analyse du besoin système, jusqu'à l'architecture solution répondant au besoin fonctionnel exprimé par le client. Ce besoin est formalisé dans les exigences. Les travaux de cette thèse proposent une approche outillée permettant de modéliser l'architecture solution en exprimant les fonctions requises associées à leurs contraintes non fonctionnelles dans différents points de vue. Ces derniers permettent de représenter les éléments de l'architecture solution sous différentes facettes, ségréguant de ce fait la complexité. De plus, des contrôles permettent de s'assurer du respect de règles de cohérence et de conception. Nous proposons également une méthode, associée à la réalisation d'un modèle conceptuel du système et de son environnement, permettant d'écrire des exigences mieux construites. Le modèle conceptuel nous permet de réaliser une interprétation de la sémantique présente dans ces exigences afin d'en extraire des éléments de contrôle et de vérification. Ces éléments capturés dans les exigences seront ensuite associés sous forme d'annotations aux éléments des différents points de vue constituant l'architecture, en exploitant les liens de traçabilité réalisés par les ingénieurs concepteurs. La vérification de la prise en compte de ces éléments d'annotation ainsi que la génération automatique de points de vue à partir d'informations contenues dans les exigences nous permet d'obtenir des solutions architecturales plus proches du besoin initial. Le modèle conceptuel nous donne également la possibilité de capitaliser la connaissance
The increasing complexity of software-intensive systems produced in the industry is related to the complexity of engineering: reduction of production delays, activities organisation, managing subcontractors. . . This complexity is also due to the increasing number of new functions and data to be processed. Moreover, it depends on the number of physical and software components to interact, constrained in terms of functionality and quality, which implies ever more difficult designs for these systems. To control their production, a high level of expertise is required in more and more domains. Moreover, this knowledge must be shared by many teams collaborating on building specification and implementing separate and specific entities of the system. System Engineering process describes the different building phases, from operational need analysis, through system need analysis, to the establishment of an architectural solution that meets the functional need expressed by the customer. This need is formalized in requirements. This PhD work proposes an approach to model architectural solutions by expressing the required functions associated with their non-functional constraints using different viewpoints. These viewpoints can represent different facets of the architectural solution, separing thus the global complexity. Additionally, controls allow to ensure that the solution is compliant with coherence and design rules. We also propose a method coupled with the realization of a conceptual model of the system and its environment, in order to obtain better written requirements. The conceptual model allows us to make an interpretation of the semantics present in these requirements in order to extract control and verification elements. These items captured in requirements will annotate elements of different viewpoints, representing the architecture, by exploiting traceability links established by design engineers. The verification of these annotations consideration and the automatic generation of viewpoints from information contained in the requirements allows us to obtain architectural solutions closer to the customer needs. The conceptual model also gives us the opportunity to capitalize, in different expertise domains, on engineers knowledge. It also enables us to establish a reference model as a basis for discussion and training of new team members
Los estilos APA, Harvard, Vancouver, ISO, etc.
9

Chabot, Martial. "Tests automatisés dirigés par les exigences pour systèmes cyber-physiques". Thesis, Université Grenoble Alpes (ComUE), 2018. http://www.theses.fr/2018GREAM056/document.

Texto completo
Resumen
Aujourd’hui, de nombreux grands industriels de différents domaines se sont lancés dans la conception de produits intelligents pour répondre aux nouveaux besoins du marché. La conception de ces systèmes est de plus en plus complexe, puisqu’ils sont composés de nombreux composants physiques pouvant être contrôlés par des applications s'exécutant sur des processeurs. Afin d'assister cette conception multi-disciplines, la solution que nous proposons dans cette thèse est de diriger la modélisation et la conception du système par la prise en compte des scénarios de test qui devront être utilisés pour valider ses exigences. La méthode préconisée suggère de raisonner au niveau système et de commencer le processus de conception par la formalisation des tests de validation. En d'autres termes, il s'agit en particulier de préciser le(s) critère(s) d’acceptation de l’exigence ainsi que le scénario de test nécessaire pour le(s) vérifier. Formaliser ainsi les tests permet notamment d'analyser la formulation des exigences elles-mêmes et d'y lever toute ambiguïté. Nous proposons un modèle générique de la vue structurelle de l'infrastructure de test, et un profil UML associé. La vue comportementale est modélisée sous forme de diagrammes de séquences SysML. Les interfaces de l'infrastructure de test fournissent des contraintes de testabilité pour le système à concevoir. Nous avons développé un outil, ARES (Automatic geneRation of Executable tests from SysML), qui transforme automatiquement cette spécification structurelle/comportementale des tests en scénarios simulables ou exécutables. Ceux-ci, analogues par construction, seront utilisés pour valider des modèles simulables du système (Matlab/Simulink) puis lors du processus de vérification finale du produit (avec un environnement TestStand). Nous présentons l'application de cet outil sur diverses études de cas associées à des produits Schneider Electric
Nowadays, many major manufacturers in different fields are working towards the design of smart products to meet new market needs. The design of these systems is increasingly complex, as they are composed of many physical components controlled by applications running on processors. In order to support this multi-disciplinary design, the solution we propose in this thesis is to guide the system modeling and design by taking into account the test scenarios that will be used to validate its requirements. The method that we propose suggests reasoning at the system level and starting the design process by formalizing validation tests. In other words, it amounts to specifying the acceptance criterion(s) for the requirement as well as the test scenario necessary to verify it. Formalizing the tests in this way makes it possible to analyze the formulation of the requirements themselves and to remove any ambiguity. We propose a generic model of the structural view of the test infrastructure, and an associated UML profile. The behavioral view is modeled as SysML sequence diagrams. The test infrastructure interfaces provide testability constraints for the system to be designed. We have developed a tool, ARES (Automatic GeneRation of Executable Tests from SysML), which automatically transforms this structural/behavioral specification of the tests into simulatable or executable scenarios. These scenarios, analogous by construction, will be used to validate simulatable models of the system (Matlab/Simulink), then during the process of final verification of the product (with a TestStand environment). We present the application of this tool on various case studies associated with Schneider Electric products
Los estilos APA, Harvard, Vancouver, ISO, etc.
10

Benson, Marie Anne. "Pouvoir prédictif des données d'enquête sur la confiance". Master's thesis, Université Laval, 2021. http://hdl.handle.net/20.500.11794/69497.

Texto completo
Resumen
Les données d’enquête sur la confiance sont des séries chronologiques recensant les réponses à des questions visant à mesurer la confiance et les anticipations des agents économiques à propos de l’activité économique future. La richesse de ces données ainsi que leur disponibilité en temps réel suscitent l’intérêt de nombreux prévisionnistes, qui y voient un moyen d’améliorer leurs prévisions classiques. Dans ce mémoire, j’évalue le pouvoir prédictif des données d’enquête sur la confiance pour l’évolution future du PIB, tout en comparant notamment la performance prévisionnelle des indices de confiance produits par le Conférence Board of Canada aux indicateurs que je construis par l’analyse en composantes principales. À partir de trois modèles linéaires, j’analyse une expérience de prévision hors échantillon, de type « rolling windows », sur un échantillon couvrant la période 1980 à 2019. Les résultats démontrent que l’analyse en composantes principales fournissent des indicateurs plus performants que les indices de confiance du Conference Board. Cependant, les résultats de l’étude ne permettent pas d’affirmer clairement que la confiance améliore la prévision une fois que le taux de croissance retardé du PIB est incorporé.
Confidence survey data are time series containting the responses to questions aiming to measure confidence and expectations of economic agents about future economic activity. The richness of these data and their availability in real time attracts the interest of many forecasters who see it as a way to improve their traditional forecasts. In this thesis, I assess the predictive power of survey data for the future evolution of Canadian GDP, while comparing the forecasting performance of the Conference Board of Canada own confidence indices to the indicators I construct using principal component analysis. Using three simple linear models, I carry out an out-of-sample forecasting experiment with rolling windows on the period 1980 to 2019. The results show that principal component analysis provides better-performing indicators than the indices produced by the Conference Board. However, the results of the study cannot show that clear that confidence improves forecasting unambiguently once the lagged growth rate of GDP is added to the analysis.
Los estilos APA, Harvard, Vancouver, ISO, etc.
11

Pétin, Jean-François. "Méthodes et modèles pour un processus sûr d'automatisation". Habilitation à diriger des recherches, Université Henri Poincaré - Nancy I, 2007. http://tel.archives-ouvertes.fr/tel-00202431.

Texto completo
Resumen
Les travaux développés dans ce mémoire concernent la formalisation d'un processus sûr d'automatisation en vue de maîtriser la complexité induite par l'intégration de plus en plus importante de technologies de l'information et de la communication au cœur même des processus de production et des produits. Plus précisément, notre travail porte sur l'intégration d'approches méthodologiques, issues du Génie Automatique, et de modèles formels, issus du Génie Informatique et de l'Automatique des Systèmes à Evénements Discrets afin de garantir, a priori, le respect des exigences formulées par les utilisateurs. Notre contribution porte sur deux axes. Le premier concerne l'intégration de techniques de synthèse de la commande dans un processus d'automatisation, incluant les phases de modélisation et de génération d'un code implantable, et leur application à la reconfiguration de systèmes manufacturiers contrôlés par le produit. Le second est basé sur le raffinement formel ou semi-formel de modèles pour identifier et structurer les exigences exprimées à un niveau " système " puis les allouer et les projeter sur une architecture de fonctions, de composants ou d'équipements. Ces travaux ont été initiés dans le cadre de notre thèse en réponse aux besoins de R&D industriels de la Direction des Etudes & Recherche d'EDF, puis ont été poursuivis avec une cible relative aux systèmes manufacturiers et validés dans le cadre de collaborations industrielles variées.
Los estilos APA, Harvard, Vancouver, ISO, etc.
12

Duffet, Carole. "Quelle confiance accorder au modèle solution de la tomographie de réflexion 3D ?" Montpellier 2, 2004. http://www.theses.fr/2004MON20222.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
13

Sannier, Nicolas. "INCREMENT : une approche hybride pour modéliser et analyser dans le large les exigences réglementaires de sûreté". Phd thesis, Université Rennes 1, 2013. http://tel.archives-ouvertes.fr/tel-00941881.

Texto completo
Resumen
Les systèmes de contrôle-commande importants pour la sûreté de fonctionnement doivent répondre à un certain nombre d'exigences, au premier rang desquelles se trouvent les exigences réglementaires, édictées par les autorités nationales et complétées par un ensemble de recommandations pratiques et de textes normatifs. Les exigences de ce domaine sont peu formalisées, les relations de traçabilité, et par conséquent l'organisation des exigences de ce vaste domaine est souvent implicite. Enfin, les passerelles entre contextes nationaux différents sont très peu développées. Les travaux de cette thèse se situent dans ce contexte industriel en partenariat avec EDF R&D et au sein du projet CONNEXION regroupant les acteurs majeurs du contrôle-commande nucléaire français. Les contributions de la thèse s'articulent autour de l'approche INCREMENT (Intrumentation aNd Control regulatory REquirement Modeling Environment) qui adresse les deux premiers challenges présentés, et en particulier : (1) la formalisation du domaine où nous proposons à la fois une description du domaine et un métamodèle permettant une capitalisation et une vue globale d'un référentiel d'exigences, (2) une base outillée pour l'acquisition automatique de documents, un environnement graphique pour la manipulation de modèles et l'apport de techniques de recherche d'information pour la traçabilité des exigences, (3) une approche originale avec une hybridation entre modélisation et recherche d'information pour une amélioration de la traçabilité des exigences. Le métamodèle proposé et ses outils sont utilisés dans l'industrie dans le projet CONNEXION. Notre approche hybride a permis dans nos expérimentations de réduire, en moyenne, la taille de ces espaces de 65% comparé aux approches standard de recherche d'information, sans en dégrader le contenu.
Los estilos APA, Harvard, Vancouver, ISO, etc.
14

Lacroix, Julien. "Vers un cloud de confiance : modèles et algorithmes pour une provenance basée sur les contrôles d'accès". Thesis, Aix-Marseille, 2015. http://www.theses.fr/2015AIXM4365.

Texto completo
Resumen
Ce document constitue l'aboutissement de trois années de thèse. Après avoir introduit et dégagé la problématique générale se rapportant à mon sujet de thèse, à savoir « comment utiliser les données de provenance pour favoriser un Cloud de confiance ? », je présente une description des concepts, modèles et langages se rapportant à ma thèse et l'état de l'art qui peut répondre en partie à cette problématique. En second lieu, je présente la solution basée sur la provenance que j'apporte aux contrôles d'accès, dans les systèmes distribués comme le Cloud : PBAC². Elle repose sur un système combinant à la fois des modèles de provenance (PROV-DM) et de contrôles d'accès (règles génériques de type RBAC avec des politiques d'embrigadement ou de réglementation). Ce système utilise un moteur d'exécution central appelé le médiateur pour renforcer la sécurité et favoriser la confiance dans le Cloud, via la vérification de règles sur une partie du graphe de provenance rétrospective qu'il a reçue. Par ailleurs, je décris l'étude que j'ai faite de trois extensions de PBAC² : (1) l'intégration de l'ontologie PROV-O et ses avantages et inconvénients quant à la taille du (sous-)graphe de provenance reçu par le médiateur ; (2) la construction de l'adaptation de PBAC² avec l'approche de sécurité qu'est la réglementation; (3) la traduction des règles PBAC² en contraintes PROV-CONSTRAINTS. De plus, PBAC² est appliqué sur un exemple réaliste propre au secteur médical. Un prototype de PBAC² et une démonstration sur des exemples concrets avec une machine locale et un système de Cloud réel illustrent la portée de ce travail. En conclusion de la thèse, je propose quatre perspectives de ce travail
This document is the culmination of three years of thesis. Having introduced and cleared the general issue related to my thesis subject, i.e. « how to use provenance data to enforce trust in the Cloud? », I present a description of the concepts, models and languages related to my thesis and the state of the art that can partially address this issue. Secondly, I present the solution based on provenance that I bring to access controls, in distributed systems such as the Cloud: PBAC². It is based on a system combining both provenance models (PROV-DM) and access controls (generic rules of RBAC type with regimentation and regulation policies). This system uses a central execution engine denoted the mediator to enforce security and foster trust in the Cloud, via rule checking over a part of the retrospective provenance graph it received. Furthermore, I describe the study I made of three PBAC² extensions: (1) the integration of the PROV-O ontology and its pros and cons regarding the size of the (sub)graph received by the mediator; (2) the construction of the PBAC² adaptation with the regulation security approach; (3) the translation of PBAC² rules into PROV CONSTRAINTS constraints. Moreover, PBAC² is applied to a realistic example that belongs to the healthcare sector. A PBAC² prototype and a demonstration on some practical examples with a local machine and a real Cloud system illustrate the scope of this work. In conclusion of the thesis, I propose four perspectives of this work
Los estilos APA, Harvard, Vancouver, ISO, etc.
15

Arlot, Sylvain. "Rééchantillonnage et Sélection de modèles". Phd thesis, Université Paris Sud - Paris XI, 2007. http://tel.archives-ouvertes.fr/tel-00198803.

Texto completo
Resumen
Cette thèse s'inscrit dans les domaines de la statistique non-paramétrique et de la théorie statistique de l'apprentissage. Son objet est la compréhension fine de certaines méthodes de rééchantillonnage ou de sélection de modèles, du point de vue non-asymptotique.

La majeure partie de ce travail de thèse consiste dans la calibration précise de méthodes de sélection de modèles optimales en pratique, pour le problème de la prédiction. Nous étudions la validation croisée V-fold (très couramment utilisée, mais mal comprise en théorie, notamment pour ce qui est de choisir V) et plusieurs méthodes de pénalisation. Nous proposons des méthodes de calibration précise de pénalités, aussi bien pour ce qui est de leur forme générale que des constantes multiplicatives. L'utilisation du rééchantillonnage permet de résoudre des problèmes difficiles, notamment celui de la régression avec un niveau de bruit variable. Nous validons théoriquement ces méthodes du point de vue non-asymptotique, en prouvant des inégalités oracle et des propriétés d'adaptation. Ces résultats reposent entre autres sur des inégalités de concentration.

Un second problème que nous abordons est celui des régions de confiance et des tests multiples, lorsque l'on dispose d'observations de grande dimension, présentant des corrélations générales et inconnues. L'utilisation de méthodes de rééchantillonnage permet de s'affranchir du fléau de la dimension, et d'"apprendre" ces corrélations. Nous proposons principalement deux méthodes, et prouvons pour chacune un contrôle non-asymptotique de leur niveau.
Los estilos APA, Harvard, Vancouver, ISO, etc.
16

Rosas, Erika. "Services à base de communautés de confiance dans les réseaux P2P". Paris 6, 2011. http://www.theses.fr/2011PA066573.

Texto completo
Resumen
La mise en place d'un service applicatif au sein d'un système pair-à-pair (P2P) nécessite un fonctionnement correct au niveau de chaque pair. Dans un environnement P2P ouvert et hétérogène, certains pairs peuvent toutefois se révéler malicieux et porter atteinte à la fiabilité de l'application à laquelle ils participent. La confiance devient donc un élément essentiel pour encourager la coopération active de chaque pair vis-à-vis de l'application, et améliorer la qualité du service fourni. La présente thèse constitue une étude de solutions pour construire des applications P2P pseudo-fiables, c'est-à-dire avec une probabilité élevée de fournir un service fiable. Nous détaillons dans un premier temps l'état de l'art des activités de recherche dans le domaine de la gestion répartie de la réputation et de la confiance. Puis nous proposons deux solutions complémentaires: un système de réputation novateur en ce qu'il introduit une mesure du risque associé à la valeur de la réputation de chaque pair, ainsi qu'un ensemble d'algorithmes P2P pour établir et maintenir un groupe de pairs réputés fiables. Pour finir nous proposons plusieurs exemples de services applicatifs pseudo-fiables en expliquant comment les bâtir à l'aide de nos solutions, et étudions plus précisément un service de routage pour évaluer le degré de confiance qui peut être atteint grâce à notre approche.
Los estilos APA, Harvard, Vancouver, ISO, etc.
17

Mekki, Ahmed. "Contribution à la Spécification et à la Vérification des Exigences Temporelles : Proposition d'une extension des SRS d'ERTMS niveau 2". Phd thesis, Ecole Centrale de Lille, 2012. http://tel.archives-ouvertes.fr/tel-00710674.

Texto completo
Resumen
Les travaux développés dans cette thèse visent à assister le processus d'ingénierie des exigences temporelles pour les systèmes complexes à contraintes de temps. Nos contributions portent sur trois volets : la spécification des exigences, la modélisation du comportement et la vérification. Pour le volet spécification, une nouvelle classification des exigences temporelles les plus communément utilisées a été proposée. Ensuite, afin de cadrer l'utilisateur durant l'expression des exigences, une grammaire de spécification à base de motifs prédéfinis en langage naturel est développée. Les exigences générées sont syntaxiquement précises et correctes quand elles sont prises individuellement, néanmoins cela ne garantie pas la cohérence de l'ensemble des exigences exprimées. Ainsi, nous avons développé des mécanismes capables de détecter certains types d'incohérences entre les exigences temporelles. Pour le volet modélisation du comportement, nous avons proposé un algorithme de transformation des state-machine avec des annotations temporelles en des automates temporisés. L'idée étant de manipuler une notation assez intuitive et de générer automatiquement des modèles formels qui se prêtent à la vérification. Finalement, pour le volet vérification, nous avons adopté une technique de vérification à base d'observateurs et qui repose sur le model-checking. Concrètement, nous avons élaboré une base de patterns d'observation (ou observateurs) ; chacun des patterns développés est relatif à un type d'exigence temporelle dans la nouvelle classification. Ainsi, la vérification est réduite à une analyse d'accessibilité des états correspondants à la violation de l'exigence associée
Los estilos APA, Harvard, Vancouver, ISO, etc.
18

Blouin, Dominique. "Modeling languages for requirements engineering and quantitative analysis of embedded systems". Lorient, 2013. http://www.theses.fr/2013LORIS313.

Texto completo
Resumen
Model-based Systems Engineering (MBSE) is an approach to handle the increasing complexity of systems through the use of models that can be analyzed to detect errors as early as possible. A critical phase of systems engineering is Requirements Engineering (RE), which occurs at the very beginning of the development cycle and aims at stating precisely the problem that a system is intended to solve. Coupled with the requirements, a system design specification will state a solution to the problem formulated by the requirements. Many Architecture Description Languages (ADLs) have been proposed for the modeling of design specifications, and the analysis of system non-functional properties. However, some of these ADLs currently lack means to model the problem and analysis domains. To solve these problems, two new modeling languages are proposed that can be combined with any ADL to cover the missing domains. The Requirements Definition and Analysis Language (RDAL) supports the analysis and verification of requirements by the design; including RE best practices. The Quantitative Analysis Modeling Language (QAML) allows representing analysis models formally for their seamless integration with design models. Interpretation of QAML models provides automated evaluation of system non-functional properties ensuring their consistency with the evolving design. QAML is well suited to for the representation of complex component data sheets easing their integration in model-based designs. The validation of both languages is presented with a set of example AADL models, showing how the languages helped in discovering errors that could not easily be found from natural language specifications
L’ingénierie dirigée par les modèles est une approche visant à maitriser la complexité croissante des systèmes. Une phase critique de cette approche est l’ingénierie des exigences, qui vise à formuler correctement le problème qui doit être résolu par le système à développer. Une spécification d’exigences doit être couplée avec une spécification de la conception du système qui représente une solution au problème formulé. Plusieurs langages de description d’architectures (ADL) ont été proposés pour la modélisation des systèmes et l’analyse de leurs propriétés non fonctionnelles (NFP). Cependant, certains de ces langages ne disposent pas de moyens de modélisation des domaines du problème et de l’estimation des NFP. Pour résoudre ces problèmes, cette thèse propose deux nouveaux langages pouvant être combinés à des ADL pour en combler ces lacunes. RDAL (Requirements Definition and Analysis Language) permet la modélisation, l’analyse et là vérification des exigences d’un système, incluant des moyens de formalisation de bonnes pratiques de l’ingénierie des exigences. QAML (Quantitative Analysis Modeling Language) permet de représenter des modèles d’analyse de NFP de manière à pouvoir les intégrer dans un modèle d’un ADL donné. Ces modèles sont alors automatiquement interprétés pour fournir des estimations des NFP concernées, s’assurant ainsi de leur cohérence avec le modèle évolutif de conception. QAML est également utile pour la représentation des fiches techniques des composants de manière à faciliter l’intégration des données dans le flot de conception. Ces deux langages ont été validés à l’aide de modèles AADL démontrant leur capacité à détecter des erreurs de conception
Los estilos APA, Harvard, Vancouver, ISO, etc.
19

Samih, Hamza. "Test basé sur les modèles appliqué aux lignes de produits". Thesis, Rennes 1, 2014. http://www.theses.fr/2014REN1S109/document.

Texto completo
Resumen
L'ingénierie des lignes de produits est une approche utilisée pour développer une famille de produits. Ces produits partagent un ensemble de points communs et un ensemble de points de variation. Aujourd'hui, la validation est une activité disjointe du processus de développement des lignes de produits. L'effort et les moyens fournis dans les campagnes de tests de chaque produit peuvent être optimisés dans un contexte plus global au niveau de la ligne de produits. Le model-based testing est une technique de génération automatique des cas de test à partir d'un modèle d'états et de transitions construit à partir des exigences fonctionnelles. Dans cette thèse, nous présentons une approche pour tester une ligne de produits logiciels avec le model-based testing. La première contribution consiste à établir un lien entre le modèle de variabilité et le modèle de test, à l'aide des exigences fonctionnelles. La deuxième contribution est un algorithme qui extrait automatiquement un modèle de test spécifique à un produit membre de la famille de produits sous test. L'approche est illustrée par une famille de produits de tableaux de bord d'automobiles et expérimentée par un industriel du domaine aéronautique dans le cadre du projet Européen MBAT
Software product line engineering is an approach that supports developing products in family. These products are described by common and variable features. Currently, the validation activity is disjointed from the product lines development process. The effort and resources provided in the test campaigns for each product can be optimized in the context of product lines. Model-based testing is a technique for automatically generating a suite of test cases from requirements. In this thesis report, we present an approach to test a software product line with model-based testing. This technique is based on an algorithm that establishes the relationship between the variability model released with OVM and the test model, using traceability of functional requirements present in both formalisms. Our contribution is an algorithm that automatically extracts a product test model. It is illustrated with a real industrial case of automotive dashboards and experimented by an industrial of aeronautic domain in the MBAT European project context
Los estilos APA, Harvard, Vancouver, ISO, etc.
20

Mekki, Ahmed. "Contribution à la Spécification et à la Vérification des Exigences Temporelles : Proposition d’une extension des SRS d’ERTMS niveau 2". Thesis, Ecole centrale de Lille, 2012. http://www.theses.fr/2012ECLI0006/document.

Texto completo
Resumen
Les travaux développés dans cette thèse visent à assister le processus d’ingénierie des exigences temporelles pour les systèmes complexes à contraintes de temps. Nos contributions portent sur trois volets : la spécification des exigences, la modélisation du comportement et la vérification. Pour le volet spécification, une nouvelle classification des exigences temporelles les plus communément utilisées a été proposée. Ensuite, afin de cadrer l’utilisateur durant l’expression des exigences, une grammaire de spécification à base de motifs prédéfinis en langage naturel est développée. Les exigences générées sont syntaxiquement précises et correctes quand elles sont prises individuellement, néanmoins cela ne garantie pas la cohérence de l’ensemble des exigences exprimées. Ainsi, nous avons développé des mécanismes capables de détecter certains types d’incohérences entre les exigences temporelles. Pour le volet modélisation du comportement, nous avons proposé un algorithme de transformation des state-machine avec des annotations temporelles en des automates temporisés. L’idée étant de manipuler une notation assez intuitive et de générer automatiquement des modèles formels qui se prêtent à la vérification. Finalement, pour le volet vérification, nous avons adopté une technique de vérification à base d’observateurs et qui repose sur le model-checking. Concrètement, nous avons élaboré une base de patterns d’observation (ou observateurs) ; chacun des patterns développés est relatif à un type d’exigence temporelle dans la nouvelle classification. Ainsi, la vérification est réduite à une analyse d’accessibilité des états correspondants à la violation de l’exigence associée
The work developed in this thesis aims to assist the engineering process of temporal requirements for time-constrained complex systems. Our contributions concern three phases: the specification, the behaviour modelling and the verification. For the specification of temporal requirements, a new temporal properties typology taking into account all the common requirements one may meet when dealing with requirements specification, is introduced. Then, to facilitate the expression, we have proposed a structured English grammar. Nevertheless, even if each requirement taken individually is correct, we have no guarantee that a set of temporal properties one may express is consistent. Here we have proposed an algorithm based on graph theory techniques to check the consistency of temporal requirements sets. For the behaviour modelling, we have proposed an algorithm for transforming UML State Machine with time annotations into Timed Automata (TA). The idea is to allow the user manipulating a quite intuitive notation (UML SM diagramsduring the modelling phase and thereby, automatically generate formal models (TA) that could be used directly by the verification process. Finally, for the verification phase, we have adopted an observer-based technique. Actually, we have developed a repository of observation patterns where each pattern is relative to a particular temporal requirement class in our classification. Thereby, the verification process is reduced to a reachability analysis of the observers’ KO states relatives to the requirements’ violation
Los estilos APA, Harvard, Vancouver, ISO, etc.
21

Taffo, Tiam Raoul. "Modèles opérationnels de processus métier et d'exigences variables pour le développement de lignes de produits logiciels". Thesis, Montpellier, 2015. http://www.theses.fr/2015MONTS268.

Texto completo
Resumen
Toute institution concernée par le développement de logiciels, qu’il s’agisse d’un éditeur ou d’un organisme de services, doit faire face au challenge de compétitivité : “ faire de l’économie, un «objet de première classe» en génie logiciel ”. Cet impératif de penser l’économie du logiciel, s’est traduit par l’objectif d’obtenir une meilleure maîtrise sur la productivité du développeur. La Réutilisation Logicielle (Software Reuse) est un moyen privilégié d’augmenter cette productivité, en particulier quand elle est systématisée. Deux types d’activités doivent être considérés pour améliorer la réutilisation logicielle, le développement pour la réutilisation (development for reuse) et le développement par la réutilisation (development by reuse). Plusieurs solutions ont été proposées pour contribuer au développement pour la réutilisation. L’approche lignes de produits se distingue par sa contribution au développement par la réutilisation, à travers l’assistance et l’automatisation de la sélection, la configuration, et la dérivation de nouveaux produits. Néanmoins, malgré que cette approche a positionné la réutilisation comme activité centrale dans son processus de développement, celle-ci reste difficile à réaliser dans beaucoup de situations. Par exemple, en raison de l’absence de spécification ou gestion de la variabilité qui peut se manifester dans chacun des artefacts de toutes les étapes du cycle de développement. Dans ce cadre, la problématique générale de cette thèse CIFRE consiste en l’industrialisation d’une usine logicielle par la systématisation de la réutilisation dans chacune de ses étapes et la maximisation de l’automatisation des transitions entre étapes. Afin de mieux supporter l’agilité des environnements métier, notre premier objectif est la spécification de la variabilité au sein des modèles de processus métier, de sorte que les modèles conçus soient directement utilisables dans les usines logicielles. Notre second objectif consiste à introduire la spécification de la variabilité lors de l'ingénierie des exigences permettant ainsi de systématiser leur réutilisation, et l’établissement des liens de traçabilité avec les modèles de processus métier variables précédents. Ainsi, un modèle d’architecture logicielle (orientée services) peut être généré au sein de l'usine logicielle, comme implémentation des processus métier modélisés précédemment et dans le respect des exigences spécifiées
Any organization involved in software engineering has to deal with reduction of production time and cost, in order to face the competitiveness challenge. This imperative of thinking the software economy resulted in the goal of getting better control on developer productivity. Software Reuse is a preferred way to increase the productivity, particularly when it is systematized. Two types of activities should be considered to improve software reuse, development for reuse and development by reuse. Several solutions have been proposed to contribute and improve development for reuse. For its part, product line approach is distinguished by its contribution to development by reuse through support and automation of selection, configuration, and derivation of new products. However, although this approach has positioned reuse as a core activity in its engineering process, it remains difficult to realize it in many situations. For example, due to lack of specification or management of variability which may occur in each artifacts from all steps of the engineering process. In this context, the general issue of this thesis consists in industrialization of software product line, by the contribution to systematization of reuse in each steps and automation of transitions between those steps. To better support the business agility, our first goal is the specification of variability within business process models, in order to make them directly usable into software factory. Our second goal is to introduce variability specification into requirements engineering, enabling systematic reuse of requirements models and establishing traceability links with previous models of variable business processes. Thus, an architecture model (service oriented) can be generated in software factory, as implementation of modeled business processes with compliance to specified requirements
Los estilos APA, Harvard, Vancouver, ISO, etc.
22

Revault, d'Allonnes Adrien. "Evaluation sémantique d'informations symboliques : la cotation". Paris 6, 2011. http://www.theses.fr/2011PA066395.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
23

Lebeaupin, Benoit. "Vers un langage de haut niveau pour une ingénierie des exigences agile dans le domaine des systèmes embarqués avioniques". Thesis, Université Paris-Saclay (ComUE), 2017. http://www.theses.fr/2017SACLC078/document.

Texto completo
Resumen
La complexité des systèmes conçus actuellement devient de plus en plus importante. En effet,afin de rester compétitives, les entreprises concevant des systèmes cherchent à leur rajouter de plus en plusde fonctionnalités. Cette compétitivité introduit aussi une demande de réactivité lors de la conception desystèmes, pour que le système puisse évoluer lors de sa conception et suivre les demandes du marché.Un des éléments identifiés comme empêchant ou diminuant cette capacité à concevoir de manière flexibledes systèmes complexes concerne les spécifications des systèmes, et en particulier l’utilisation de la languenaturelle pour spécifier les systèmes. Tout d’abord, la langue naturelle est intrinsèquement ambiguë et celarisque donc de créer des non-conformités si client et fournisseur d’un système ne sont pas d’accord sur lesens de sa spécification. De plus, la langue naturelle est difficile à traiter automatiquement, par exemple, onpeut difficilement déterminer avec un programme informatique que deux exigences en langue naturelle secontredisent. Cependant, la langue naturelle reste indispensable dans les spécifications que nous étudions,car elle reste un moyen de communication pratique et très répandu.Nous cherchons à compléter ces exigences en langue naturelle avec des éléments permettant à la fois de lesrendre moins ambiguës et de faciliter les traitements automatiques. Ces éléments peuvent faire partie demodèles (d’architecture par exemple) et permettent de définir le lexique et la syntaxe utilisés dans lesexigences. Nous avons testé les principes proposés sur des spécifications industrielles réelles et développéun prototype logiciel permettant de réaliser des tests sur une spécification dotée de ces éléments de syntaxeet de lexique
Systems are becoming more and more complex, because to stay competitive, companies whichdesign systems search to add more and more functionalities to them. Additionally, this competition impliesthat the design of systems needs to be reactive, so that the system is able to evolve during its conception andfollow the needs of the market.This capacity to design flexibly complex systems is hindered or even prevented by various variouselements, with one of them being the system specifications. In particular, the use of natural language tospecify systems have several drawbacks. First, natural language is inherently ambiguous and this can leadsto non-conformity if customer and supplier of a system disagree on the meaning of its specification.Additionally, natural language is hard to process automatically : for example, it is hard to determine, usingonly a computer program, that two natural language requirements contradict each other. However, naturallanguage is currently unavoidable in the specifications we studied, because it remains very practical, and itis the most common way to communicate.We aim to complete these natural language requirements with elements which allow to make them lessambiguous and facilitate automatic processing. These elements can be parts of models (architectural modelsfor example) and allow to define the vocabulary and the syntax of the requirements. We experimented theproposed principles on real industrial specifications and we developped a software prototype allowing totest a specification enhanced with these vocabulary and syntax elements
Los estilos APA, Harvard, Vancouver, ISO, etc.
24

Touzani, Mounir. "Extension de l’ingénierie des exigences à l’information spatio-temporelle : apports dans le contexte des systèmes d’information de gestion". Thesis, Montpellier, 2016. http://www.theses.fr/2016MONTT309/document.

Texto completo
Resumen
Dans un monde où les personnes et les objets sont de plus en plus connectés et localisés, l’information géographique (IG) est très présente dans notre quotidien et sa prise en compte dans les systèmes d'information (SI) de gestion devient incontournable. Les particuliers et les entreprises la mobilisent de manière croissante pour se repérer dans l’espace, accéder à diverses données statistiques géo-référencées, planifier des déplacements, etc.Les développements actuels sur les systèmes mobiles par exemple, impliquent de facto une dimension spatio-temporelle (ST), souvent réservée aux SI géographiques (SIG). Par conséquent, de nombreux systèmes logiciels sont amenés à entretenir une relation très étroite et précise avec le monde réel afin d'ouvrir de nouveaux champs d'applications comme les villes intelligentes, les usines du futur ou une nouvelle génération de systèmes de logistique.L'ampleur de cette évolution est majeure puisqu'en termes de données, au moins 80% sont concernées (http://www.esrifrance.fr/sig1.aspx). Cependant, un analyste est souvent confronté à des difficultés pour capturer des exigences d'une manière générale, rendant nécessaire une approche organisée et plus systématique. C'est dans ce contexte que nous orientons notre étude vers le domaine de l'ingénierie des exigences (IE) pour mieux construire un raisonnement qui prend en compte la dimension ST. C'est une étape clé dans le développement de telles exigences dans un projet d'évolution de SI de gestion.Le cadre proposé intègre des contributions dans les domaines de l'IE et de la géomatique. En ce sens, nous avons retenu particulièrement la méthode KAOS qui propose une approche d'IE orientée buts et outillée avec un logiciel nommé "Objectiver". Dans un premier temps, nous proposons une extension de la méthodologie KAOS à la dimension spatio-temporelle. KAOS répond déjà aux questions du "POURQUOI", du "COMMENT", du "QUOI" et du "QUI". Nous abordons dans notre recherche plus précisément, les questions du "QUAND "et du "OÙ". Nous utilisons pour ceci deux axes de recherche : d'une part nous explorons la dualité dimensions spatiales/temporelles, afin de transposer à la dimension spatiale des techniques d'IE déjà définies. D'autre part, nous prenons en considération des notations largement utilisées dans les SIG, et ce, afin de les intégrer dans les primitives d'IE et faciliter ainsi la capture d'exigences spatio-temporelles. Nous avons réalisé un prototype à l'aide de l'outil "Objectiver". Cependant, les résultats présentés restent applicables à d'autres méthodes et outils.Afin de pousser le plus possible l'évolution d'un système existant, nous proposons dans un deuxième temps, d'examiner plus spécifiquement des stratégies ouvertes d'intégration, exploitant ainsi des briques ouvertes en matière de données et/ou de services pour répondre à des besoins géomatiques identifiés. Nous pensons aux utilisateurs de ces SI qui doivent pouvoir intégrer des aspects spatiaux et temporels au sein de leurs règles de gestion ou règles métier.Se pose alors la question "comment identifier les aspects ST des règles métier par un processus d'IE ?" qui nous amène à réfléchir sur la construction d'un SI de gestion, qui soit capable de séparer la vue métier de la vue système. Nous montrons plus spécifiquement comment les règles métiers peuvent être identifiées sur la base d'aspects spatio-temporels. Nous avons outillé notre contribution et nous l'illustrons à travers une étude de cas réelle de fusion de deux universités. Ensuite, nous montrons à travers cette même étude de cas comment déployer de telles règles dans les composants les plus appropriés en veillant à garantir une architecture ouverte
In a world where people and objects are increasingly connected and localized, geographic information (GI) is very present in our daily life and its inclusion in the management information systems becomes essential. Individuals and enterprises mobilize increasingly to orient themselves in space, access to various statistical data georeferenced, plan travel...Current developments on mobile systems, for example, involve a space-time dimension, often reserved for geographic information systems (GIS). Therefore, many software systems are required to maintain a very close relationship and precise with the real world to open up new fields of application such as smart cities, factories of the future or a new generation of logistics systems.The magnitude of this change is major since in terms of data, at least 80% are concerned (http://www.esrifrance.fr/sig1.aspx). However, an analyst often faces difficulties in capturing requirements in general, necessitating an organized and systematic approach. It is in this context that we direct our study to the field of requirements engineering (RE) to better build an argument that takes into account the space-time dimension. This is a key step in the development of such requirements in a management information system development project.The proposed framework includes contributions in the fields of RE and geomatics. In this sense, we have particularly caught the KAOS method that offers a goal oriented requirements engineering approach and equipped with a software named "Objectiver".First, we propose an extension of the KAOS methodology in the space-time dimension. KAOS already answered the questions of "WHY", the "HOW", the "WHAT" and the "WHO". We approach our research specifically, the issues of "WHEN" and "WHERE". We use this for two lines of research : one explores the duality between space and time dimensions in order to transpose the spatial dimension of requirements engineering techniques already defined. On the other hand, we consider notations widely used in GIS, and to integrate them in primitive requirements engineering and thus facilitate the capture of space-time requirements. We made a prototype using the tool "Objectiver". However, the results presented are applicable to other methods and tools.To push as much as possible the performance of an existing system, we propose as a second step, to examine more specifically the open integration strategies and operating bricks started in data and/or services to meet geomatics to identified needs. We believe the users of these information systems must be able to integrate space-time aspects in their management rules or business rules.This raises the question "how to identify the space-time aspects of business rules by a RE process ?" Which brings us to reflect on the construction of a management information system that is capable of separating the business view and the system view. We show specifically how business rules can be identified on the basis of space-time aspects. We have equipped our contribution and illustrate through a real case study of merger of two universities. Next, we show through this same case study how to deploy such rules in the most appropriate components ensuring secure an open architecture
Los estilos APA, Harvard, Vancouver, ISO, etc.
25

Dragomir, Iulia. "Conception et vérification d'exigences de sûreté temporisées à base de contrats dans les modèles SysML". Toulouse 3, 2014. http://thesesups.ups-tlse.fr/2510/.

Texto completo
Resumen
De nos jours, les systèmes informatiques croissent en taille et en complexité. Intégrés dans des dispositifs de différents domaines tels que l'avionique, l'aéronautique, l'électronique grand public, etc. , ils sont souvent considérés comme critiques à l'égard de la vie humaine, des coûts et de l'environnement. Concevoir des systèmes embarqués temps-réel critiques sûrs et fiables est une tâche difficile, étant donné que leurs modèles sont souvent source d'erreurs. Une façon pour les concepteurs de contourner cette difficulté consiste à s'appuyer sur la modélisation compositionnelle de composants logiciels pilotée par les exigences. Le raisonnement à base de contrats permet de construire des composants sûrs à partir des exigences globales du système en interposant des spécifications abstraites et partielles entre les besoins du système et les composants eux-mêmes. Informellement, un contrat modélise le comportement abstrait d'un composant du point de vue de l'exigence à satisfaire (c. A. D garantie) dans un contexte donné (c. A. D. Hypothèse). Les contrats peuvent être exploités pour décomposer et tracer les exigences au cours d'un développement itératif, mais aussi pour effectuer une vérification compositionnelle de la satisfaction des exigences. Dans cette thèse, nous présentons une méthodologie de raisonnement à base de contrats pour la conception et la vérification de systèmes sûrs développés en SysML. Ainsi, nous définissons en UML/SysML la syntaxe des contrats et des relations de raffinement entre contrats et/ou composants qui sont utilisées pour prouver la correction du système par rapport aux exigences. Ensuite, nous proposons un cadre formel qui modélise la sémantique d'un modèle UML/SysML étendu par des contrats selon une variante d'automates temporisés entrée/sortie et nous définissons la correspondance entre ces concepts. Nous formalisons les relations de raffinement par la relation d'inclusion de traces et nous prouvons leurs propriétés compositionnelles ce qui assure la correction de la méthodologie. L'approche est instanciée pour le profil OMEGA et la boîte à outils IFx2 qui génère partiellement les obligations de preuve. Finalement, plusieurs études de cas dont une issue de l'industrie complètent la théorie pour évaluer l'approche à base de contrats et ses résultats et les comparer aux méthodes classiques de model-checking
Nowadays computer systems grow larger in size and more complex. Embedded in devices from different domains like avionics, aeronautics, consumer electronics, etc. , they are often considered critical with respect to human life, costs and environment. A development that results in safe and reliable critical real-time embedded systems is a challenging task, considering that errors are accidentally inserted in the design. A way for system designers to tackle this issue is to use a compositional design technique based on components and driven by requirements: it allows to infer from global requirements, component properties that must locally hold. Contract-based reasoning allows to compositionally derive correct components from global system requirements by interposing abstract and partial specifications for components. Informally, a contract models the abstract behavior a component exhibits from the point of view of the requirement to be satisfied (i. E. Guarantee) in a given context (i. E. Assumption). Contracts can be used to decompose and trace requirements during iterative design, but also to perform compositional verification of requirement satisfaction. In this thesis, we present a methodology for reasoning with contracts during system design and verification within SysML. Thus, we define the syntax for contracts in UML/SysML, as well as a set of refinement relations between contracts and/or components in order to prove the system's correctness with respect to requirements. Next, we provide a formal framework that models the semantics of a UML/SysML model extended with contracts as a mapping of the language concepts to a variant of Timed Input/Output Automata. The refinement relations are formalized based on the trace inclusion relation and compositional properties are proved to hold which ensures the soundness of the methodology. The approach is instantiated for the OMEGA Profile and IFx2 toolset with partial automatic generation of proof obligations. Finally, the approach is applied on several case studies, including an industry-grade system model, which show its efficiency by comparative verification results
Los estilos APA, Harvard, Vancouver, ISO, etc.
26

Minier, Marine. "Quelques résultats en cryptographie symétrique, pour les modèles de confiance dans les réseaux ambiants et la sécurité dans les réseaux de capteurs sans fil". Habilitation à diriger des recherches, INSA de Lyon, 2012. http://tel.archives-ouvertes.fr/tel-00918938.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
27

Hamdi, Sana. "Computational models of trust and reputation in online social networks". Thesis, Université Paris-Saclay (ComUE), 2016. http://www.theses.fr/2016SACLL001/document.

Texto completo
Resumen
Les réseaux sociaux ont connu une évolution dramatique et ont été utilisés comme des moyens pour exercer plusieurs activités. En fait, via les réseaux sociaux, les utilisateurs peuvent découvrir, gérer et partager leurs expériences et avis en ligne. Cependant, la nature ouverte et décentralisée des réseaux sociaux les rend vulnérables à l'apparition des utilisateurs malveillants. Par conséquent, les utilisateurs éventuels peuvent faire face à plusieurs de problèmes liés à la confiance. Ainsi, une évaluation de confiance effective et efficace est très importante pour la prise de décisions par ces utilisateurs. En effet, elle leur fournit des informations précieuses leur permettant de faire la différence entre ceux dignes et indignes de confiance. Cette thèse a pour but de fournir des méthodes de gestion de confiance et de réputation des utilisateurs des réseaux sociaux efficaces et qui peuvent être présentées par les quatre contributions suivantes. La première contribution présente une complexe extraction des contextes et des intérêts des utilisateurs, où les informations contextuelles sociales complexes sont prises en compte, reflétant mieux les réseaux sociaux. De plus, nous proposons un enrichissement de l'ontologie Dbpedia par des concepts de folksonomies.Ensuite, nous proposons une approche de gestion de la confiance, intitulée IRIS, permettant la génération du réseau de confiance et le calcul de la confiance directe. Cette approche considère les activités sociales des utilisateurs incluant leurs relations sociales, préférences et interactions.La troisième contribution de cette thèse est la gestion de transitivité de confiance dans les réseaux sociaux. En fait, c'est nécessaire et significatif d'évaluer la confiance entre deux participants n’ayant pas des interactions directes. Nous proposons ainsi, un modèle d'inférence de confiance, appelé TISON, pour évaluer la confiance indirecte dans les réseaux sociaux.La quatrième contribution de cette thèse consiste à gérer la réputation des utilisateurs des réseaux sociaux. Pour ce faire, nous proposons deux nouveaux algorithmes. Nous présentons un nouvel algorithme exclusif pour la classification des utilisateurs basés sur leurs réputations, appelé le RePC. De plus, nous proposons un deuxième algorithme, FCR, qui présente une extension floue de RePC. Pour les approches proposées, nous avons conduits différentes expérimentations sur des ensembles de données réels ou aléatoires. Les résultats expérimentaux ont démontré que nos algorithmes proposés produisent de meilleurs résultats, en termes de qualité des résultats livrés et d’efficacité, par rapport à différentes approches introduites dans littérature
Online Social Networks (OSNs) have known a dramatic increase and they have been used as means for a rich variety of activities. In fact, within OSNs, usersare able to discover, extend, manage, and leverage their experiences and opinionsonline. However, the open and decentralized nature of the OSNs makes themvulnerable to the appearance of malicious users. Therefore, prospective users facemany problems related to trust. Thus, effective and efficient trust evaluation isvery crucial for users’ decision-making. It provides valuable information to OSNsusers, enabling them to make difference between trustworthy and untrustworthyones. This thesis aims to provide effective and efficient trust and reputationmanagement methods to evaluate trust and reputation of OSNs users, which canbe divided into the following four contributions.The first contribution presents a complex trust-oriented users’ contexts andinterests extraction, where the complex social contextual information is taken intoaccount in modelling, better reflecting the social networks in reality. In addition,we propose an enrichment of the Dbpedia ontology from conceptualizations offolksonomies.We second propose the IRIS (Interactions, Relationship types and Interest Similarity)trust management approach allowing the generation of the trust networkand the computation of direct trust. This model considers social activities of usersincluding their social relationships, preferences and interactions. The intentionhere is to form a solid basis for the reputation and indirect trust models.The third contribution of this thesis is trust inference in OSNs. In fact, it isnecessary and significant to evaluate the trust between two participants whomhave not direct interactions. We propose a trust inference model called TISON(Trust Inference in Social Networks) to evaluate Trust Inference within OSNs.The fourth contribution of this thesis consists on the reputation managementin OSNs. To manage reputation, we proposed two new algorithms. We introducea new exclusive algorithm for clustering users based on reputation, called RepC,based on trust network. In addition, we propose a second algorithm, FCR, whichis a fuzzy extension of RepC.For the proposed approaches, extensive experiments have been conducted onreal or random datasets. The experimental results have demonstrated that ourproposed algorithms generate better results, in terms of the utility of delivered results and efficiency, than do the pioneering approaches of the literature
Los estilos APA, Harvard, Vancouver, ISO, etc.
28

Saba, Stéphanie. "Marché et réseaux : l'influence des liens interindividuels sur l'efficacité des échanges". Thesis, Paris 2, 2016. http://www.theses.fr/2016PA020008/document.

Texto completo
Resumen
La définition et la mesure de la confiance restent toujours une ambiguïté en économie, sociologie et philosophie. Les "trois papiers" de cette thèse comparent, tout en considérant le niveau de confiance deux mécanismes de vente: la vente de gré à gré et la vente aux enchères. Le marché de Boulogne-sur-Mer, caractérisé par la coexistence stable de deux systèmes de vente constitue le centre de notre analyse empirique. Ces trois papiers sont précédés par une introduction générale et une revue de la littérature. Le premier papier est dédié à la comparaison des deux structures en termes de robustesse et de "nestedness", en s’appuyant sur de outils de réseaux employés par les écologistes. Le deuxième papier analyse la création des liens de confiance du côté de l’acheteur à l’aide d’un modèle de durée. La taille des acheteurs a son rôle sur la confiance. Le troisième papier s’intéresse à l’effet de l’indice de confiance sur les "outcomes" des transactions. Des graphes bipartis et homogènes montrent une différence de structure. Nos résultats affirment que le marché de gré à gré est plus atteint par la confiance comme l’information est centralisée. Les agents se basent sur cette confiance comme alternative au risque. Cela n’est pas le cas des enchères où l’information est connue
How to define and measure trust is still an enigma in economics, philosophy and sociology. This "three papers" thesis compares two different mechanisms - egotiated(decentralised submarket) and auction (centralised submarket) - on the basis of trust. Through an empirical study, the level of trust is evaluated and its impact is analysed on the "Boulogne-sur-Mer" fish market characterised by a stable coexistence of these two mechanisms. The three papers are preceded by a general introduction and a literature review. Paper one aims at comparing the nestedness and the robustness of both submarkets. Social network tools of ecologists are applied in order to provide an answer. Paper two models trust creation on both structures from the buyer side using the survival analysis and considering the buyer size. Paper three studies the effect of a trust index on the outcomes of transactions. Bipartite and projected graphs reveal the difference between submarkets. This thesis shows that the negotiated market is marked by a higher level of trust as agents interact and are not fully informed about the market situation unlike the auction one where information is centralised. We believe that trust is a way out of risk when there is lack of information
Los estilos APA, Harvard, Vancouver, ISO, etc.
29

Coudin, Élise. "Inférence exacte et non paramétrique dans les modèles de régression et les modèles structurels en présence d'hétéroscédasticité de forme arbitraire". Thèse, Paris, EHESS, 2007. http://hdl.handle.net/1866/1506.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
30

Lerasle, Matthieu. "Rééchantillonnage et sélection de modèles optimale pour l'estimation de la densité". Toulouse, INSA, 2009. http://eprint.insa-toulouse.fr/archive/00000290/.

Texto completo
Resumen
Le principal objectif de cette thèse est d’étudier deux méthodes de calibration automatique de la pénalité pour la sélection de modèle. L’avantage de ces méthodes est double, d’une part, elles sont toujours implémentables, elles ont mˆeme souvent été utilisées dans des problèmes pratiques avec succès, d’autre part, elles sont optimales puisqu’elles permettent de sélectionner asymptotiquement le meilleur modèle. Il existe d’autres méthodes de pénalisation calculables en pratique, quand les données sont indépendantes. Néanmoins, en dehors des collections de modèles très réguliers, ces pénalités sont très pessimistes, voire dépendent de constantes inconnues comme la norme sup de la densité. De plus, quand on veut utiliser les preuves classiques pour des données mélangeantes, les pénalités que l’on obtient dépendent toujours de constantes inconnues de l’utilisateur (voir le chapitre 3). Le chapitre 2 étudie l’heuristique de pente et les pénalités par rééchantillonnage dans le cas de données indépendantes. On donne une condition suffisante pour que l’heuristique de la pente soit optimale, en utilisant l’inégalité de concentration de Talagrand pour le supremum du processus empirique. On étudie aussi l’approximation du processus empirique par sa version rééchantillonnée et on en déduit que la même condition suffit à garantir l’optimalité des méthodes par rééchantillonnage. Le chapitre 3 est consacré à l’étude de pénalités classiques quand les observations sont mélangeantes. On montre des inégalités oracles et l’adaptativité de l’estimateur sélectionné à la régularité de la densité. La pénalité dépend des coefficients de mélange qui peuvent parfois être évalués. Le chapitre 4 étend les résultats du chapitre 2 au cas de données mélangeantes. On montre ainsi que les méthodes de la pente et bootstrap sont également optimales dans ce cas, sous le même type de conditions. Ces nouvelles pénalités sont toujours calculables en pratique et le modèle sélectionné est asymptotiquement un oracle, ce qui améliore beaucoup les résultats du chapitre 3. Le chapitre 5 traite du problème des régions de confiance adaptatives. Contrairement au cas de l’estimation, cette adaptation n’est que très rarement possible. Quand elle l’est, nous construisons des régions adaptatives. En particulier, on améliore quelques résultats de concentration du chapitre 2 lorsque les données sont à valeurs réelles, notamment ceux des U-statistiques.
Los estilos APA, Harvard, Vancouver, ISO, etc.
31

Gama, Batista João Da. "Phénomènes collectifs déstabilisateurs dans les systèmes socio-économiques". Thesis, Université Paris-Saclay (ComUE), 2015. http://www.theses.fr/2015SACLC026/document.

Texto completo
Resumen
Cette thèse aborde deux sujets de recherche dans le cadre du même projet. La première voie de recherche, expliquée en détail au chapitre 3, est une approche de modélisation relative à la dynamique de confiance dans une société en réseau. La seconde voie de recherche, décrite au chapitre 4, est une approche expérimentale visant w étudier les décisions humaines lors de l’échange d’un actif avec une croissance moyenne positive par période dans un environnement de laboratoire contrôlé. Un des liens communs entre ces deux thèmes est l’action collective, qui joue un rôle déterminant dans de nombreux phénomènes, par exemple la dynamique de la panique, les faillites et par conséquent le risque systémique. C’est pourquoi, j’espère que ce travail contribuera à l’étude des phénomènes d’actions collectives, en particulier dans la finance quantitative, où les conclusions spécifiques du modèle de confiance et l’expérience de trading en laboratoire mentionnés ci-dessus pourront être utilisées dans leur état actuel
This thesis reports on two different research topics belonging to the same project. The first research avenue, which is thoroughly explained in chapter 3, is a modelling approach to the dynamics of trust in a networked society. The second, whose description can be found in chapter 4, is an experimental approach to study human decisions when people trade an asset with a positive average growth per period in a controlled laboratory environment. One of the common links between these two topics is collective action, which is a key player in a number of phenomena, for example in the dynamics of panic, bankruptcies and, consequently, systemic risk. Therefore, the author hopes that this work will contribute to the study of collective action phenomena, especially in the field of quantitative finance, in which it is more likely that the specific findings from the above mentioned trust model and trading experiment can be used in their present form
Los estilos APA, Harvard, Vancouver, ISO, etc.
32

Duong, Quoc bao. "Approche probabiliste pour l'estimation dynamique de la confiance accordée à un équipement de production : vers une contribution au diagnostic de services des SED". Phd thesis, Université de Grenoble, 2012. http://tel.archives-ouvertes.fr/tel-00910079.

Texto completo
Resumen
Le travail que nous présentons dans ce mémoire apporte sa contribution au domaine dela surveillance et de la supervision en ligne des systèmes à événements discrets complexes.Il se place dans un contexte perturbé par l'occurrence d'aléas de fonctionnement d'une partieopérative au sein duquel nous visons à mettre à disposition des équipes de maintenance desoutils pour les aider à localiser rapidement les équipements à l'origine probable de défautsproduits : localiser mieux pour maintenir mieux et donc minimiser encore davantage les tempsde dérives équipements. Si les équipements de production étaient en mesure de détecterde telles dérives, le problème pourrait être considéré comme simple, cependant, la présenced'équipements de métrologie montre le contraire. Aussi, partant du constat que les équipementsde production ne peuvent être dotés d'un système de captage couvrant de manière exhaustivel'ensemble des paramètres à observer, que la fiabilité des capteurs est variable dans le temps,que les contextes de production sont particulièrement stressants, nous avons proposé ici dedévelopper une approche probabiliste basée sur un raisonnement Bayésien permettant d'estimeren temps réel la confiance qui peut être accordée aux opérations réalisées par les équipementsde production.
Los estilos APA, Harvard, Vancouver, ISO, etc.
33

Duong, Quoc Bao. "Approche probabiliste pour l'estimation dynamique de la confiance accordée à un équipement de production : vers une contribution au diagnostic de services des SED". Thesis, Grenoble, 2012. http://www.theses.fr/2012GRENT102/document.

Texto completo
Resumen
Le travail que nous présentons dans ce mémoire apporte sa contribution au domaine dela surveillance et de la supervision en ligne des systèmes à événements discrets complexes.Il se place dans un contexte perturbé par l’occurrence d’aléas de fonctionnement d’une partieopérative au sein duquel nous visons à mettre à disposition des équipes de maintenance desoutils pour les aider à localiser rapidement les équipements à l’origine probable de défautsproduits : localiser mieux pour maintenir mieux et donc minimiser encore davantage les tempsde dérives équipements. Si les équipements de production étaient en mesure de détecterde telles dérives, le problème pourrait être considéré comme simple, cependant, la présenced’équipements de métrologie montre le contraire. Aussi, partant du constat que les équipementsde production ne peuvent être dotés d’un système de captage couvrant de manière exhaustivel’ensemble des paramètres à observer, que la fiabilité des capteurs est variable dans le temps,que les contextes de production sont particulièrement stressants, nous avons proposé ici dedévelopper une approche probabiliste basée sur un raisonnement Bayésien permettant d’estimeren temps réel la confiance qui peut être accordée aux opérations réalisées par les équipementsde production
The work that we present in this paper contributes to the field of supervision, monitoringand control of complex discrete event systems services. It is placed in the context of randomfailure occurrence of operative parts where we focus on providing tools to maintenance teamsby locating the possible origin of potential defect products: better locate to better maintain, soeffectively to minimize more equipment’s time drift. If the production equipment were able todetect such drifts, the problem could be considered simple; however, metrology equipment addsto the complexity. In addition, because of an impossibility to equip the production equipment witha sensor system which comprehensively covers all parameters to be observed, a variable sensorreliability in time and a stressed production environments, we propose a probabilistic approachbased on Bayesian network to estimate real time confidence, which can be used for productionequipment?s operation
Los estilos APA, Harvard, Vancouver, ISO, etc.
34

Le, Quyet Thang. "Analyse de covariance généralisée et modélisation du dosage progressif en alimentation animale : application à l'étude du tourteau de colza". Paris 11, 1988. http://www.theses.fr/1988PA112019.

Texto completo
Resumen
"Dans un modèle multidimensionnel dont les variables sont fortement corrélées, une analyse de covariance (ANCOVA) est à recommander. La méthode classique d'ANCOVA ne peut cependant être effectuée que si la covariable n'est pas affectée par les traitements dans l'expérience. F. Smith (l957) a illustré le cas d'une ANCOVA dont la covariable était affectée par les traitements; l'analyse conduisait à des conclusions erronées. Nous avons cherché des méthodes d'ANCOVA plus générales. Trois méthodes sont développées; les deux premières méthodes sont illustrées par l'étude de l'effet du tourteau de colza en alimentation avicole, à l'aide de données d’une station de recherche de l'INRA. La troisième méthode appliquée à une synthèse statistique n’a pu être présentée que d'une manière théorique. L'introduction d'un nouvel aliment pour animaux peut manquer d'efficacité en raison de l'inappétence de l'animal pour cet aliment. Pour éliminer cet effet d’inappétence nous proposons une modélisation du dosage progressif en alimentation animale, utilisant la méthode des comparaisons simultanées "traitements- témoin", avec affectations optimales des traitements et contrôle du déroulement de l’expérience. "
In the multivariate model where the variables are strongly correlated, a covariance analysis (ANCOVA) is strongly advisable. The classical ANCOVA method may be used only if the covariate is not affected by the treatments in the experiment. F. Smith (1957) illustrated the case of an ANCOVA with covariate affected by treatments that lead to erroneous conclusions. We proposed some generalized ANCOVA methods. Three methods are explained. The first two are used for study of colza-oil cake in avicol feeding, with experimental data from INRA. The third concerning statistical synthesis has been presented only from a theoretical point of view. The introduction of a new food for animals can be less adaptable because of the lack of animal appetite as regards to the new food. To increase the efficiency of the experiments we propose amodelization of the progressive dosage in animal feeding, using the confidence simultaneous inter-vals of the comparisons "treatments- control" with optimal allocations of treatments and control of the development of experiment
Los estilos APA, Harvard, Vancouver, ISO, etc.
35

Amokrane, Nawel. "De l’ingénierie des besoins à l’ingénierie des exigences : vers une démarche méthodologique d’ingénierie de systèmes complexes, de vérification et de validation appliquée à l’informatisation des PME". Thesis, Montpellier, 2016. http://www.theses.fr/2016MONTT259/document.

Texto completo
Resumen
Une entreprise, et particulièrement une PME ou une PMI, doit être apte à évoluer sur des secteurs d’activités souvent très concurrentiels qui évoluent rapidement, par exemple, en fonction d’une clientèle volatile et soucieuse de trouver des produits et des services moins chers et plus adaptés à ses besoins. La PME se trouve alors confrontée à des problèmes de réactivité et de flexibilité face à cette clientèle. Par effet direct, elle recherche à réduire les délais et les coûts de réalisation tout en privilégiant aussi la qualité et le degré d’innovation des biens et des services qu’elle propose. Le système d’information de cette PME est un enjeu essentiel pour mettre en œuvre cette stratégie et maximiser donc la réactivité et la flexibilité mais aussi la rentabilité et la qualité recherchées. Ce sont des qualités incontournables, garantes d’une autonomie et d’une reconnaissance dont la PME a grand besoin. Le système d’information est en effet la courroie de transmission entre le système de décision et le système productif qui génère la valeur ajoutée de la PME. Il fait le lien entre les différents acteurs de l’organisation mais aussi avec les partenaires externes de l’entreprise. Une partie de ce système d’information est de fait informatisée. Celui-ci supporte, mémorise et traite les informations nécessaires aux différents processus de décision, métier et support qui tapissent l’organisation pour servir la stratégie de l’entreprise. Les fonctionnalités, les interfaces et les données qui forment ce système informatisé sont donc cruciales à comprendre, à développer en accord avec les besoins de la PME, à améliorer au fur et à mesure de l’évolution de ces besoins. La PME est donc tentée de se lancer, seule ou accompagnée, dans des projets dits d’informatisation i.e. des projets visant le développement ou l’amélioration de son système informatisé. Nous nous intéressons ici à des projets visant à développer des applicatifs de gestion et de pilotage de la PME. La PME – prenant alors le rôle de la maîtrise d’ouvrage (MOA) – tout comme la société de services qui l’accompagne – prenant alors en charge le rôle de maîtrise d’œuvre (MOE) – doivent partager une vision commune des besoins d’informatisation. Elles sont alors appelées à mener en commun des activités d’ingénierie des besoins et des exigences (IBE). L’IBE guide et accompagne la PME pour arriver à décrire et formaliser ses besoins. Elle permet ensuite à la société de service de spécifier de manière plus formelle ces besoins sous forme d’exigences qui définissent alors les travaux de développement souhaités. L’IBE est souvent réalisée avec une assistance à maitrise d’ouvrage. Cette étape cruciale reste cependant difficile pour une PME. Elle est de plus souvent réalisée par la MOE elle-même pour faire face au manque de moyens, de temps et de compétences de la PME. Or, l’implication des collaborateurs de la PME est primordiale pour la réussite de tout projet d’informatisation, surtout si celui-ci impacte durablement le fonctionnement de la PME.Ces travaux, développés dans le cadre d’une collaboration Industrie/recherche avec la SSII RESULIS, ont consisté à développer une méthode d’IBE qui offre aux PME des concepts, des langages et des moyens de modélisation et de vérification simples mais suffisants tout en tant aisément manipulables de manière intuitive et donnant lieu à une formalisation pertinente pour la MOE. Cette méthode est basée sur le croisement et la complémentarité de principes issus de la Modélisation d’Entreprise et de l’Ingénierie Système pour l’élicitation de besoins. Des moyens de vérification et de validation semi-formels sont appliqués pour garantir certaines qualités attendues des exigences résultantes. La méthode s’intègre également au cycle de développement basé sur les modèles pour permettre a posteriori d’accélérer la production de prototypes et de rendre interopérables les langages et outils de la MOA et de la MOE
Most enterprises, and especially SMEs, must develop their business in very competitive and rapidly changing fields. Where they have to adapt to volatile customers who want to find cheaper products and services and that are more corresponding to their needs. The SME is then confronted with problems of responsiveness and flexibility in responding to these customers. As an effect, it seeks to reduce the costs and time to market and to provide high quality and innovative goods and services. The SME’s information system is an asset on which it can rely to implement this strategy and so to maximize its responsiveness and flexibility but also to reach the sought profitability and quality. These are key qualities that guarantee autonomy and recognition, qualities that are highly needed by any SME. The Information system is indeed the drive belt of information not only inside the enterprise, between decision and operational systems proving added value of the enterprise, but also within its environment that includes its external partners. Part of this information system is computerized. It stores and processes the information needed by the different decision-making, business and support processes that serve the enterprise’s strategy. It is crucial to understand the features, interfaces and data that make up this computerized system and develop them according to the needs of SME. The SME is therefore tempted to embark, alone or accompanied, in so-called computerization projects i.e. projects for the development or improvement of its computerized system. We are interested in projects aimed at developing management applications of SMEs. The SME – then assuming the role of project owner – along with the development team – supporting the role of project management – have to share a common vision of the computerization needs. They are then called upon to carry out jointly requirements engineering (RE) activities. RE guides the SMEs to be able to describe and formalize its needs. It then allows the development team to specify more formally these needs as requirements which then define the required development work. RE is often carried out with the assistance of project owner support. This crucial step remains difficult for SMEs. It is most often performed by the development team itself to address the lack of resources, time and skills of SMEs. However, the involvement of the SME’s members is vital to the success of any computerization project, especially if it permanently affects the functioning of the enterprise.This work, developed through a collaborative with the company RESULIS, consisted in developing a requirements engineering method which offers SMEs concepts, simple languages, modeling and verification means that are easily and intuitively manipulated and provide sufficient and relevant formalization of the SME’s requirements. This method is based on principles derived from both enterprise modeling and systems engineering fields for requirements elicitation. Semi-formal verification and validation means are applied to guarantee some expected qualities of the resulting requirements. The method is also integrated in the model driven development cycle to enable a posteriori the production of prototypes and make interoperable the languages and tools used by both the SME and the development team
Los estilos APA, Harvard, Vancouver, ISO, etc.
36

Chareton, Christophe. "Modélisation formelle d’exigences et logiques temporelles multi-agents". Thesis, Toulouse, ISAE, 2014. http://www.theses.fr/2014ESAE0020/document.

Texto completo
Resumen
Ces travaux concernent la modélisation formelle d’exigences et les interactions entre agents. Nous y avons développé un langage de modélisation pour les exigences d’un système à élaborer, KHI. En s’inspirant notamment des méthodes KAOS et TROPOS-i*, KHI synthétise les concepts essentiels relatifs aux buts et aux agents. Il permet en particulier d’exprimer la question de la capacité effective des agents à assurer la satisfaction des spécifications qui leurs sont assignées. Nous appelons cette question le problème de l’assignation. Dans KHI, nous exprimons ce problème comme la question de la satisfaction d’un certain nombre de critères de correction par un modèle. Pour donner un formalisme aux concepts de KHI et un moyen de résolution du problème de l’assignation, nous introduisons également une logique temporelle multi-agents, USL. Elle s’inspire des travaux dans le domaine, en particulier ATL*sc et SL. Comme ces derniers formalismes, elle utilise des contextes de stratégies pour exprimer des capacités d’agents à assurer la satisfaction de propriétés temporelles. Elle se distingue des autres formalismes existants principalement par deux aspects : d’abord elle utilise des stratégies non-déterministes. Nous les appelons des multi-stratégies. Nous pouvons ainsi exprimer des propriétés de raffinement entre les multi-stratégies. Par ailleurs, nous utilisons pour USL des exécutions du système qui ne sont pas nécessairement infinies. Nous pouvons alors formaliser les notions d’engagement contradictoire pour un agent et de capacités d’actions conflictuelles pour un ensemble d’agents. Nous réduisons ensuite la satisfaction des critères de correction qui expriment le problème de l’assignation dans KHI à des instances du problème de model-checking pour une version adéquate de USL, USLKHI . Nous donnons un algorithme de résolution pour ce problème, il tourne en espace polynomial. L’ensemble des concepts et des outils présentés est par ailleurs illustré par un cas d’étude décrivant des missions d’observation spatiale
These studies relate to modeling languages for requirements engineering. The aim is to provide tools for the evaluation of agents' capacity to ensure the satisfaction of their assigned specifications (we talk of "the assignment problem"). To do so, we first develop a modeling language (Khi). Then we give a set of assignment correctness criteria for systems that are modelled as instances of Khi. We also develop a formal tool, USLKhi, for wich we solve the model checking problem. We reduce the different correctness criteria for Khi instances to instances of the model checking problem for USLKhi. Thus as a whole, our proposition enables to express, formalise and solve the assignment problem. We also illustrate the set of concepts and tools that are presented with a case study featuring spatial observation missions
Los estilos APA, Harvard, Vancouver, ISO, etc.
37

Bouchard, Joëlle. "Prévision et réapprovisionnement dynamiques de produits de consommation à cycle rapide". Doctoral thesis, Université Laval, 2016. http://hdl.handle.net/20.500.11794/27421.

Texto completo
Resumen
L’industrie du commerce de détail est en plein bouleversement, de nombreuses bannières ont annoncé récemment leur fermeture, telles que Jacob, Mexx, Danier, Smart Set et Target au Canada, pour n’en nommer que quelques-unes. Pour demeurer compétitives et assurer leur pérennité, les entreprises en opération doivent s’adapter aux nouvelles habitudes d’achat des consommateurs. Nul doute qu’une meilleure connaissance de la demande s’impose. Or comment estimer et prévoir cette demande dans un contexte où la volatilité croit constamment, où la pression de la concurrence est omniprésente et globale, et où les cycles de vie des produits sont de plus en plus courts ? La gestion de la demande est un exercice difficile encore aujourd’hui, même avec le développement d’outils de plus en plus sophistiqués. L’environnement dynamique dans lequel évoluent les organisations explique, en partie, cette difficulté. Le client, depuis les 30 dernières années, est passé de spectateur passif à acteur de premier plan, modifiant inévitablement la relation consommateur-entreprise. Le développement technologique et la venue du commerce en ligne sont aussi largement responsables de la profonde mutation que subissent les entreprises. La façon de faire des affaires n’est plus la même et oblige les entreprises à s’adapter à ces nouvelles réalités. Les défis à relever sont nombreux. Les entreprises capables de bien saisir les signaux du marché seront mieux outillées pour prévoir la demande et prendre des décisions plus éclairées en réponse aux besoins des clients. C’est donc autour de ce thème principal, à travers un exemple concret d’entreprise, que s’articule cette thèse. Elle est divisée en trois grands axes de recherche. Le premier axe porte sur le développement d’une méthode de prévision journalière adaptée aux données de vente ou de demande présentant une double saisonnalité de même que des jours spéciaux. Le second axe de recherche, à deux volets, présente d’abord une méthode de prévision par ratios permettant de prévoir rapidement les ventes ou demandes futures d’un très grand nombre de produits et ses variantes. En deuxième volet, il propose une méthode permettant de calculer des prévisions cumulées de vente ou demande et d’estimer la précision de la prévision à l’aide d’un intervalle de confiance pour des produits récemment introduits dans les magasins d’une chaîne. Enfin, le troisième axe traite d’un outil prévisionnel d’aide à la décision de réapprovisionnement et propose des recommandations de taille de commande basées sur les résultats d’une analyse prévisionnelle, sur le déploiement des produits ciblés et sur l’analyse de la demande et des inventaires des produits substituts potentiels. Mots-clés : Prévision; saisonnalité; effet calendaire; produit sans historique; intervalle de confiance; décision de réapprovisionnement; réseau de détail.
The retail industry is in upheaval. Many banners have recently announced their closure, such as Jacob, Mexx, Danier, Smart Set and Target in Canada, to name a few. To remain competitive and ensure their sustainability, companies have to adapt themselves to new consumer buying habits. No doubt that a better understanding of demand is needed. But how to estimate and forecast demand in a context with constantly increasing volatility and ever shorter product lifecycles, where competitive pressure is pervasive and global? Managing demand is a difficult exercise, even in this age when numerous sophisticated tools have been developed. The dynamic environment in which organizations evolve explains in part the difficulty. Through the past 30 years, the customer has gone from passive spectator to leading actor, inevitably changing the consumer-business relationship. Technological development and the advent of e-commerce are also largely responsible for profound changes experienced by businesses. The way of doing business is not the same and forces companies to adapt to these new realities. The challenges are important. Companies able to seize market signals will be better equipped to anticipate demand and make better decisions in response to customer needs. This thesis is articulated according to three main lines of research around this main theme, exploiting a real business testbed. The first theme concerns the development of a daily forecast method adapted to sales data with a double seasonality as well as special days. The second twofold research first presents a forecasting method for using ratio to quickly forecast sales or future demands of a very large number of products and their variations. Then it proposes a method to determine cumulative sales forecasts and confidence intervals for products newly introduced in the chain stores. Finally, the third axis proposes a predictive method to help reorder launching and sizing decision based on the results of a predictive analysis, deployment of targeted products and inventory of potential substitute products. Keywords : Forecasting; seasonality; calendar effect; products without demand history; confidence intervals; replenishment decision; retail network.
Los estilos APA, Harvard, Vancouver, ISO, etc.
38

Chevallereau, Benjamin. "Contribution des nouvelles approches de modélisation à la durabilité des applications". Phd thesis, Ecole centrale de nantes - ECN, 2011. http://tel.archives-ouvertes.fr/tel-00578443.

Texto completo
Resumen
Les organisations actuelles se structurent et agissent en s'appuyant sur leurs systèmes d'information. Malgré les progrès considérables réalisés par la technologie informatique, on constate que les acteurs restent très souvent critiques par rapport à leur systèmes d'information. Une des causes de cet écart entre les espoirs et la réalité trouve sa source dans la difficulté à produire un cahier des charges suffisamment détaillé pour les opérationnels et interprétable par les spécialistes des systèmes d'information. Notre proposition vise à surmonter cet obstacle en organisant l'expression des besoins dans un langage commun aux opérationnels et aux experts techniques. Pour cela, le langage proposé pour exprimer les besoins est basé sur la notion de but. L'ensemble de cette démarche repose sur l'ingénierie dirigée par les modèles. Celle-ci a aujourd'hui montré la majorité de ces résultats dans la phase de développement logiciel et tout particulièrement avec l'approche MDA. Tandis que cette phase est grandement étudiée par la communauté IDM, la phase de spécification et d'expression du besoin est, aujourd'hui, peu approfondie. Notre proposition repose sur la mise en œuvre de l'ingénierie dirigée par les modèles dans cette phase, qui semble être l'une des plus importantes dans le processus de développement logiciel, avec pour objectif d'améliorer la qualité de la spécification des besoins et ainsi apporter une information plus fiable et plus claire aux étapes suivantes. Cette proposition repose sur un méta-modèle de spécification du besoin fonctionnel et d'un mécanisme d'interprétation à l'aide de transformations de modèles.
Los estilos APA, Harvard, Vancouver, ISO, etc.
39

Louati, Amine. "Une approche multi-agents pour la composition de services Web fondée sur la confiance et les réseaux sociaux". Thesis, Paris 9, 2015. http://www.theses.fr/2015PA090035/document.

Texto completo
Resumen
Dans cette thèse, nous nous intéressons aux problèmes de découverte, de sélection et de composition de services. L'objectif est de satisfaire une requête complexe d'un demandeur de services. Pour ce faire, nous proposons une approche multi-agents fondée sur la confiance et les réseaux sociaux. Nous définissions un modèle de confiance en tant que concept compositionnel formé de quatre composantes: une composante sociale, une composante d'expertise, une composante de recommandation et une composante de coopération. La composante sociale juge s'il est intéressant de suivre un fournisseur avant d'utiliser ses services. La composante d'expertise estime si un service se comporte bien et comme prévu. La composante de recommandation vérifie si un agent est pertinent ou pas et si l'on peut compter sur ses recommandations. La composante de coopération permet aux agents de décider avec qui interagir dans une composition de services. Nous proposons un algorithme distribué pour la découverte de services utilisant la confiance entre les agents ainsi que les systèmes de références dans les réseaux sociaux. Nous développons également une nouvelle méthode s'appuyant sur un modèle probabiliste pour inférer la confiance entre les agents non adjacents tout en tenant compte des rôles des agents intermédiaires. Finalement, nous présentons un processus original de formation de coalitions qui est incrémental, dynamique et recouvrant pour une composition de services dans les réseaux sociaux. Les résultats expérimentaux montrent que nos approches multi-agents sont efficaces, plus performants que les approches similaires existantes et peuvent offrir des résultats plus dignes de confiance à faible coût de communications
This thesis deals with service discovery, selection and composition problems. The aim is to fulfill a complex requester query. To do that, we propose a multi-agent approach based on trust and social networks. We define a trust model as a compositional concept that includes social, expert, recommender and cooperation-based component. The social-based component judges whether or not the provider is worthwhile pursuing before using his services. The expert-based component estimates whether or not the service behaves well and as expected. The recommender-based component checks whether or not an agent is reliable and if we can rely on its recommendations. The cooperation-based component allows agents to decide with whom to interact in a service composition. We propose a distributed algorithm for service discovery using trust between agents and referral systems in social networks. We also develop a new method based on a probabilistic model to infer trust between non adjacent agents while taking into account roles of intermediate agents. Finally, we present an original coalition formation process which is incremental, dynamic and overlapping for service composition in social networks. %In particular, our coalition formation process engaging self-interested agents is incremental, dynamic and overlapping. Experimental results show that our multi-agents approaches are efficient, outperforms existing similar ones and can deliver more trustworthy results at low cost of communications
Los estilos APA, Harvard, Vancouver, ISO, etc.
40

Kamdem, Simo Freddy. "Model-based federation of systems of modelling". Thesis, Compiègne, 2017. http://www.theses.fr/2017COMP2374.

Texto completo
Resumen
L'ingénierie des systèmes complexes et systèmes de systèmes conduit souvent à des activités de modélisation (MA) complexes. Les problèmes soulevés par les MA sont notamment : comprendre le contexte dans lequel elles sont exécutées, comprendre l'impact sur les cycles de vie des modèles qu'elles produisent, et finalement trouver une approche pour les maîtriser. L'objectif principal de cette thèse est d'élaborer une approche formelle pour adresser ce problème. Dans cette thèse, après avoir étudié les travaux connexes en ingénierie système et plus spécifiquement ceux qui portent sur la co-ingénierie du système à faire (le produit) et du système pour faire (le projet), nous développons une méthodologie nommée MODEF pour traiter ce problème. MODEF consiste en: (1) Caractériser les MA comme un système et plus généralement une fédération de systèmes. (2) Construire de manière itérative une architecture de ce système via la modélisation du contenu conceptuel des modèles produits par MA et leur cycle de vie, les tâches réalisées au sein des MA et leurs effets sur ces cycles de vie. (3) Spécifier les attentes sur ces cycles de vie. (4) Analyser les modèles (des MA) par rapport à ces attentes (et éventuellement les contraintes sur les tâches) pour vérifier jusqu'à quel point elles sont atteignables via la synthèse des points (ou états) acceptables. D'un point de vue pratique, l'exploitation des résultats de l'analyse permet de contrôler le déroulement des tâches de modélisation à partir de la mise en évidence de leur impact sur les modèles qu'elles produisent. En effet, cette exploitation fournit des données pertinentes sur la façon dont les MA se déroulent et se dérouleraient de bout en bout. A partir de ces informations, il est possible de prendre des mesures préventives ou correctives. Nous illustrons cela à l'aide de deux cas d'étude (le fonctionnement d'un supermarché et la modélisation de la couverture fonctionnelle d'un système). D'un point de vue théorique, les sémantiques formelles des modèles des MA et le formalisme des attentes sont d'abord données. Ensuite, les algorithmes d'analyse et d'exploitation sont présentés. Cette approche est brièvement comparée avec des approches de vérification des modèles et de synthèse de systèmes. Enfin, deux facilitateurs de la mise en œuvre de MODEF sont présentés. Le premier est une implémentation modulaire des blocs de base de MODEF. Le second est une architecture fédérée (FA) des modèles visant à faciliter la réutilisation des modèles formels en pratique. La formalisation de FA est faite dans le cadre de la théorie des catégories. De ce fait, afin de construire un lien entre abstraction et implémentation, des structures de données et algorithmes de base sont proposés pour utiliser FA en pratique. Différentes perspectives sur les composantes de MODEF concluent ce travail
The engineering of complex systems and systems of systems often leads to complex modelling activities (MA). Some challenges exhibited by MA are: understanding the context where they are carried out and their impacts on the lifecycles of models they produce, and ultimately providing a support for mastering them. How to address these challenges with a formal approach is the central challenge of this thesis. In this thesis, after discussing the related works from systems engineering in general and the co-engineering of the system to be made (product) and the system for make (project) systems specifically, we position and develop a methodology named MODEF, that aims to master the operation of MA. MODEF consists in: (1) characterizing MA as a system (and more globally as a federation of systems) in its own right; (2) iteratively architecting this system through: the modelling of the conceptual content of the models produced by MA and their life cycles, the tasks carried out within MA and their effects on these life cycles; (3) specifying the expectations over these life cycles and; (4) analysing models (of MA) against expectations (and possibly tasks constraints) - to check how far expectations are achievable - via the synthesis of the acceptable behaviours. On a practical perspective, the exploitation of the results of the analysis allows figuring out what could happen with the modelling tasks and their impacts on the whole state of models they handle. We show on two case studies (the operation of a supermarket and the modelling of the functional coverage of a system) how this exploitation provides insightful data on how the system is end-to-end operated and how it can behave. Based on this information, it is possible to take some preventive or corrective actions on how the MA are carried out. On the foundational perspective, the formal semantics of three kinds of involved models and the expectations formalism are first discussed. Then the analysis and exploitation algorithms are presented. Finally this approach is roughly compared with model checking and systems synthesis approaches. Last but not least, two enablers whose first objectives are to ease the implementation of MODEF are presented. The first one is a modular implementation of MODEF's buildings blocks. The second one is a federated architecture (FA) of models which aims to ease working with formal models in practice. Despite the fact that FA is formalised within the abstract framework of category theory, an attempt to bridge the gap between abstraction and implementation is sketched via some basic data structures and base algorithms. Several perspectives related to the different components of MODEF conclude this work
Los estilos APA, Harvard, Vancouver, ISO, etc.
41

Hérault, Stéphanie. "Étude des processus de formation de l'attitude envers la marque : un essai de modélisation intégrant une variable psychologique, la confiance en soi : une application en situation de pré-test publicitaire pour des produits de grande consommation". Paris 1, 1999. http://www.theses.fr/1999PA010065.

Texto completo
Resumen
Chercheurs et praticiens sont aujourd'hui quasiment unanimes pour reconnaitre qu'une publicité est efficace si elle conduit l'individu à évaluer favorablement la marque, objet de la communication. A la lumière des recherches en psychosociologie sur la notion de force d'une attitude, il apparait cependant que la seule prise en compte de la composante évaluative peut ne refléter que partiellement le construit d'attitude dans un contexte publicitaire. Parmi les dimensions non évaluatives les plus fréquemment étudiées, l'on trouve la notion de confiance dans l'attitude (Howard, 1989). Cependant, cette notion et celle plus générale de confiance en soi n'ont que trop rarement fait l'objet de travaux en communication persuasive. Cette recherche doctorale a donc pour objectifs de clarifier la notion de confiance, fondée non seulement sur la littérature mais aussi sur l'expérimentation, et de comprendre le rôle de la confiance en soi au sein des processus de formation de l'attitude envers la marque (AB) résultant de l'exposition publicitaire. La méthodologie mise en œuvre s'appuie d'une part, sur un protocole expérimental similaire à certains systèmes utilisés par les sociétés d'études pour la collecte de données (pré-test publicitaire incluant un programme tv préalablement à la diffusion de 4 annonces pour des marques inconnues en France) et d'autre part, sur les modèles d'équations structurelles avec variables latentes et erreurs de mesure pour la vérification de la qualité des instruments de mesure et la validation des hypothèses de recherche. Les résultats de l'étude empirique montrent que la confiance de l'individu en lui-même à la fois dans sa composante générale (estime de soi) et de manière plus spécifique (confiance dans le traitement des informations et degré de certitude associé à quatre médiateurs intermédiaires d'efficacité) permet de rendre compte de la réalité de la communication persuasive. Plus précisément, la confiance en soi semble jouer un double rôle au sein du processus de persuasion : un rôle de variable intermédiaire entre l'implication publicitaire et le processus de formation de l'attitude envers la marque ainsi qu'un rôle modérateur des relations de causalité d'un modèle de formation de l'attitude envers la marque principalement fonde sur l'hypothèse de médiation duale de Lutz (1985).
Los estilos APA, Harvard, Vancouver, ISO, etc.
42

Ropaul, Maïva. "Essais sur l'analyse économique de la responsabilité civile des entreprises". Thesis, Paris 2, 2015. http://www.theses.fr/2015PA020071/document.

Texto completo
Resumen
L’accélération du rythme des innovations technologiques et les pressions exercées par la société civile constituent deux défis majeurs pour le droit de la responsabilité civile. Cette thèse étudie les effets incitatifs de la responsabilité civile sur le comportement de prévention des entreprises dans ce contexte. Notre contribution vise, en particulier, à approfondir l’analyse traditionnelle de la responsabilité civile des entreprises d’une part, et d’autre part à évaluer dans quelle mesure les sanctions non légales jouent un rôle au côté de ce cadre juridique. D’abord, nous mettons en évidence l’évolution de l’analyse économique de la responsabilité. Puis nous étudions la responsabilité civile dans un modèle théorique, avec pour contribution d’évaluer les effets incitatifs du concept juridique de causalité. Ensuite, nous examinons comment les difficultés de prévision des risques d’accident affectent les incitations fournies par la responsabilité civile,par un modèle théorique d’une part, et par une expérimentation en laboratoire d’autre part. Nous développons dans un modèle théorique une analyse du rôle des sanctions non légales, émanant de la société civile,aux côtés de la responsabilité délictuelle. Nous montrons que les incitations fournies par le boycott des consommateurs sur le comportement de prévention des entreprises sont limitées. Enfin, nous complétons ce modèle par une étude empirique, et nous étudions l’ampleur et les déterminants du phénomène de boycott des consommateurs en Europe
The accelerating pace of technological innovations and pressures from civil society provide tort law with new challenges. This thesis studies the incentive effects of tort law on corporate investment in prevention in this context. Particularly, this study deepens the traditional economic analysis of corporate civil liability and assess the effects of the combination of non legal sanctions and the legal framework. First, we highlight the evolution of the economic analysis of liability and responsibility. Then, we study the incentive effects ofcivil liability in a theoretical model, with a particular emphasis on the role of the legal notion of causality. Next, we examine to what extent the difficulties of predicting accident risks affect incentives provided by liability with both a theoretical model and with a lab experiment. In a theoretical model, we develop ananalysis of the role of non-legal sanctions, from civil society, along side the tort law. We show that the incentive effects of consumer boycott on corporate investment in prevention are limited. Finally, through an empirical study, we complete this analysis by studying the magnitude and determinants of consumer boycott in Europe
Los estilos APA, Harvard, Vancouver, ISO, etc.
43

Moussa, Kaouther. "Estimation de domaines d'attraction et contrôle basé sur l'optimisation : application à des modèles de croissance tumorale". Thesis, Université Grenoble Alpes, 2020. http://www.theses.fr/2020GRALT078.

Texto completo
Resumen
L’objectif de cette thèse consiste à proposer des algorithmes ainsi que des approches, basés sur des méthodes avancées de l’automatique, afin de guider la synthèse des traitements de cancer. Cette thèse a également pour but de relever l’importance de la considération des différentes incertitudes stochastiques qui peuvent affecter ce genre de systèmes.Le phénomène de croissance tumorale et ses différentes dynamiques sont encore à nosjours un sujet de recherche ouvert. La complexité de ce type de systèmes vient de leur nature incertaine ainsi que de la méconnaissance de leurs comportements. Par ailleurs, ces systèmes sont souvent décrits par des dynamiques non-linéaires complexes et requièrent la prise en compte de différentes contraintes liées à la physiologie ainsi que la biologie de l’être humain.Ce sujet regroupe plusieurs ingrédients de complexité en termes de synthèse de contrôle, tels que les dynamiques non-linéaires, la prise en considération des contraintes ainsi que des problèmes d’optimalité. Pour cela, nous proposons dans cette thèse d’utiliser une méthode récente de contrôle optimal basée sur l’optimisation par les moments. Cette approche a pour avantage de considérer les différentes variables d’état et de contrôle comme étant des densités de probabilité, rendant la prise en considération d’incertitudes décrites par des distributions de probabilité directe dans le problème de contrôle optimal. Nous utilisons cette méthodologie dans la Partie II afin de synthétiser des contrôles optimauxet robustes, représentant des profils d’injection de médicaments.Le second problème qu’on considère dans la Partie III consiste en l’estimation derégions d’attraction pour des modèles dynamiques de cancer. Ce problème est intéressant dans le contexte de traitements de cancer, car ces régions caractérisent l’ensemble des conditions initiales (volume tumoral et indicateurs de santé), qui peuvent être amenées à une région saine, où le patient est considéré comme guéri. Par ailleurs, on analyse des méthodologies permettant de prendre en considération des modèles dynamiques présentant des incertitudes paramétriques
The main objective of this thesis is to propose frameworks and algorithms that are based on advanced control approaches, in order to guide cancer treatments scheduling. It also aims at pointing out the importance of taking into account the problem of stochastic uncertainties handling in the drug scheduling design, since cancer dynamical systems are considered to be highly uncertain phenomena.Cancer dynamical interactions are still an open research topic which is not fully understood yet. The complexity of such dynamics comes from their partially unknown behavior and their uncertain nature. Additionally, they are often described by nonlinear complex dynamics and require taking into consideration many constraints related to physiology as well as biology.In terms of control design, this topic gathers many complexity ingredients such asnonlinear dynamics, constraints handling and optimality issues. Therefore, in this thesis, we propose to use a recent optimal control approach that is based on moment optimization. This framework has the advantage of considering all the state and input variables as probability densities, allowing therefore to explicitly consider parametric as well as initial state uncertainties in the optimal control problem. We use this framework in Part II, in order to design robust optimal control schedules that represent cancer drugs injection profiles.The second problem that we address in Part III consists in the estimation of regionsof attraction for cancer interactions models. This problem is interesting in the context of cancer treatment design, since it provides the set of all possible initial conditions (tumor and patient health indicators), that can be driven to a desired targeted safe region, where the patient is considered to be healed. Furthermore, we focus on the assessment of methodologies that take into consideration the parametric uncertainties that can affect the dynamical model
Los estilos APA, Harvard, Vancouver, ISO, etc.
44

Matoussi, Abderrahman. "Construction de spécifications formelles abstraites dirigée par les buts". Thesis, Paris Est, 2011. http://www.theses.fr/2011PEST1036/document.

Texto completo
Resumen
Avec la plupart des méthodes formelles, un premier modèle peut être raffiné formellement en plusieurs étapes, jusqu'à ce que le raffinement final contienne assez de détails pour une implémentation. Ce premier modèle est généralement construit à partir de la description des besoins obtenue dans la phase d'analyse des exigences. Cette transition de la phase des exigences à la phase de spécification formelle est l'une des étapes les plus délicates dans la chaîne de développement formel. En fait, la construction de ce modèle initial exige un niveau élevé de compétence et beaucoup de pratique, d'autant qu'il n'existe pas de processus bien défini pour aider les concepteurs. Parallèlement à ce problème, il s'avère également que les exigences non-fonctionnelles sont largement marginalisées dans le processus de développement logiciel. Les pratiques industrielles actuelles consistent généralement à spécifier seulement les exigences fonctionnelles durant les premières phases de ce processus et à laisser la prise en compte des exigences non-fonctionnelles au niveau de l'implémentation. Pour surmonter ces problèmes, la thèse vise à définir un couplage entre un modèle d'exigences exprimé en SysML/KAOS et des spécifications formelles abstraites, tout en garantissant une distinction entre les exigences fonctionnelles et non-fonctionnelles dès la phase d'analyse des exigences. Pour cela, la thèse propose tout d'abord deux approches différentes (l'une dédiée au B classique et l'autre à Event-B) dans lesquelles des modèles formels abstraits sont construits progressivement à partir du modèle de buts fonctionnels SysML/KAOS. La thèse se focalise par la suite sur l'approche dédiée à Event-B afin de la compléter et l'enrichir en se servant de deux autres modèles SysML/KAOS qui décrivent les buts non-fonctionnels et leurs impacts sur les buts fonctionnels. Nous présentons différentes manières permettant d'injecter ces buts non-fonctionnels et leurs impacts dans les modèles abstraits Event-B déjà obtenus. Des liens de correspondance entre les buts non-fonctionnels et les différents éléments Event-B sont également établis afin de faciliter la gestion de l'évolution de ces buts. Les différentes approches proposées dans cette thèse ont été appliquées pour la spécification du composant de localisation qui est une partie critique d'un système de transport terrestre. L'approche dédiée à Event-B est implémentée dans l'outil SysKAOS2EventB, permettant ainsi de générer une architecture de raffinement Event-B à partir d'un modèle de buts fonctionnels SysML/KAOS. Cette mise en œuvre s'appuie principalement sur les technologies de transformation de modèles à modèles
With most of formal methods, an initial formal model can be refined in multiple steps, until the final refinement contains enough details for an implementation. Most of the time, this initial model is built from the description obtained by the requirements analysis. Unfortunately, this transition from the requirements phase to the formal specification phase is one of the most painful steps in the formal development chain. In fact, building this initial model requires a high level of competence and a lot of practice, especially as there is no well-defined process to assist designers. Parallel to this problem, it appears that non-functional requirements are largely marginalized in the software development process. The current industrial practices consist generally in specifying only functional requirements during the first levels of this process and in leaving the consideration of non-functional requirements in the implementation level. To overcome these problems, this thesis aims to define a coupling between a requirement model expressed in SysML/KAOS and an abstract formal specification, while ensuring a distinction between functional and non-functional requirements from the requirements analysis phase. For that purpose, this thesis proposes firstly two different approaches (one dedicated to the classical B and the other to Event-B) in which abstract formal models are built incrementally from the SysML/KAOS functional goal model. Afterwards, the thesis focuses on the approach dedicated to Event-B in order to complete it and enrich it by using the two other SysML/KAOS models describing the non-functional goals and their impact on functional goals. We present different ways to inject these non-functional goals and their impact into the obtained abstract Event-B models. Links of correspondance between the non-functional goals and the different Event-B elements are also defined in order to improve the management of the evolution of these goals. The different approaches proposed in this thesis have been applied to the specification of a localization component which is a critical part of a land transportation system. The approach dedicated to Event-B is implemented in the SysKAOS2EventB tool, allowing hence the generation of an Event-B refinement architecture from a SysML/KAOS functional goal model. This implementation is mainly based on the model-to-model transformation technologies
Los estilos APA, Harvard, Vancouver, ISO, etc.
45

Ahmad, Manzoor. "Modeling and verification of functional and non functional requirements of ambient, self adaptative systems". Phd thesis, Université Toulouse le Mirail - Toulouse II, 2013. http://tel.archives-ouvertes.fr/tel-00965934.

Texto completo
Resumen
The overall contribution of this thesis is to propose an integrated approach for modeling and verifying the requirements of Self Adaptive Systems using Model Driven Engineering techniques. Model Driven Engineering is primarily concerned with reducing the gap between problem and software implementation domains through the use of technologies that support systematic transformation of problem level abstractions to software implementations. By using these techniques, we have bridged this gap through the use of models that describe complex systems at multiple levels of abstraction and through automated support for transforming and analyzing these models. We take requirements as input and divide it into Functional and Non Functional Requirements. We then use a process to identify those requirements that are adaptable and those that cannot be changed. We then introduce the concepts of Goal Oriented Requirements Engineering for modeling the requirements of Self Adaptive Systems, where Non Functional Requirements are expressed in the form of goals which is much more rich and complete in defining relations between requirements. We have identified some problems in the conventional methods of requirements modeling and properties verification using existing techniques, which do not take into account the adaptability features associated with Self Adaptive Systems. Our proposed approach takes into account these adaptable requirements and we provide various tools and processes that we developed for the requirements modeling and verification of Self Adaptive Systems. We validate our proposed approach by applying it on two different case studies in the domain of Self Adaptive Systems.
Los estilos APA, Harvard, Vancouver, ISO, etc.
46

Lieber, Romain. "Spécification d'exigences physico-physiologiques en ingénierie d'un système support de maintenance aéronautique". Thesis, Université de Lorraine, 2013. http://www.theses.fr/2013LORR0197.

Texto completo
Resumen
Le cadre prescrit de l'ingénierie système, avant tout centré sur les systèmes techniques, doit évoluer pour permettre de prendre en compte dès la phase de spécification système les interactions critiques des systèmes homme-machine tels que le système de maintenance aéronautique. L'objectif est d'assurer que le comportement de ce type de système, dépendant des synergies entre les différentes interactions qui prennent place entre les constituants techniques et humains, soit maintenu dans un domaine de performances acceptables. La démarche d'intégration des facteurs humains en Ingénierie Système consiste alors à s'intéresser à la performance globale des diverses interfaces des systèmes homme-machine. Ces interfaces sont le siège d'interactions émergeantes complexes, dont certaines sont recherchées pour faciliter la performance globale visée et la résilience face à un environnement perturbateur non anticipé, et d'autres construites pour finaliser le système en regard de sa mission. Le paradigme exploré par nos travaux se fonde sur la possibilité de faire inter-opérer des modèles de processus physiologiques avec des modèles de processus techniques en spécification d'interaction homme-machine, en combinant un cadre de Modélisation Système avec celui Mathématique et Computationnel de la Physiologie Intégrative. Notre travail se focalise sur la spécification d'exigences physico-physiologiques d'une interaction de perception visuelle, modélisées avec SysML, pour que l'opérateur humain perçoive bien les propriétés symboliques "affordées" par les objets techniques qu'il doit maintenir dans des contextes opérationnels variables. Les résultats de ces travaux de spécification nous amène à proposer une nouvelle organisation d'une ingénierie système support de maintenance basée sur les modèles
Current Systems Engineering framework must evolve in order to take into account the critical interactions of human-machine systems since the specification phase. The objective is to ensure that the behavior of such systems is kept within an accepted domain of performances whatever is the context of use. Those performances depend on the synergies of the different interactions that take place between technical and human systems when operating a common object. Human Factors Integration in Systems Engineering also known as Human Systems Integration implies to start working on the overall performance of all the interfaces of a human-machine system. These different interfaces exhibit emerging complex interactions. Some of them are inquired to ease the whole system performances and facilitate system resilience capabilities within disruptive unanticipated environment. Other ones are designed to finalize the system mission according to the purpose of its context of use. The paradigm we have explored in our work is based on the hypothesis of possible inter-operations between physiological and technical processes for human-machine interaction specification by coupling a System Modeling Framework with the Mathematical Theory of Integrative Physiology one. Our work focuses on the physical and physiological requirements specification (modeled with SysML) of a visual perceptive interaction for human to perceive right the meaning of symbolic properties technical objects afford when they are being maintained in variable contextualized situations. Our specification work results lead us to propose a Model-Based Support Systems Engineering organization
Los estilos APA, Harvard, Vancouver, ISO, etc.
47

Matoussi, Abderrahman y Abderrahman Matoussi. "Construction de spécifications formelles abstraites dirigée par les buts". Phd thesis, Université Paris-Est, 2011. http://tel.archives-ouvertes.fr/tel-00680736.

Texto completo
Resumen
Avec la plupart des méthodes formelles, un premier modèle peut être raffiné formellement en plusieurs étapes, jusqu'à ce que le raffinement final contienne assez de détails pour une implémentation. Ce premier modèle est généralement construit à partir de la description des besoins obtenue dans la phase d'analyse des exigences. Cette transition de la phase des exigences à la phase de spécification formelle est l'une des étapes les plus délicates dans la chaîne de développement formel. En fait, la construction de ce modèle initial exige un niveau élevé de compétence et beaucoup de pratique, d'autant qu'il n'existe pas de processus bien défini pour aider les concepteurs. Parallèlement à ce problème, il s'avère également que les exigences non-fonctionnelles sont largement marginalisées dans le processus de développement logiciel. Les pratiques industrielles actuelles consistent généralement à spécifier seulement les exigences fonctionnelles durant les premières phases de ce processus et à laisser la prise en compte des exigences non-fonctionnelles au niveau de l'implémentation. Pour surmonter ces problèmes, la thèse vise à définir un couplage entre un modèle d'exigences exprimé en SysML/KAOS et des spécifications formelles abstraites, tout en garantissant une distinction entre les exigences fonctionnelles et non-fonctionnelles dès la phase d'analyse des exigences. Pour cela, la thèse propose tout d'abord deux approches différentes (l'une dédiée au B classique et l'autre à Event-B) dans lesquelles des modèles formels abstraits sont construits progressivement à partir du modèle de buts fonctionnels SysML/KAOS. La thèse se focalise par la suite sur l'approche dédiée à Event-B afin de la compléter et l'enrichir en se servant de deux autres modèles SysML/KAOS qui décrivent les buts non-fonctionnels et leurs impacts sur les buts fonctionnels. Nous présentons différentes manières permettant d'injecter ces buts non-fonctionnels et leurs impacts dans les modèles abstraits Event-B déjà obtenus. Des liens de correspondance entre les buts non-fonctionnels et les différents éléments Event-B sont également établis afin de faciliter la gestion de l'évolution de ces buts. Les différentes approches proposées dans cette thèse ont été appliquées pour la spécification du composant de localisation qui est une partie critique d'un système de transport terrestre. L'approche dédiée à Event-B est implémentée dans l'outil SysKAOS2EventB, permettant ainsi de générer une architecture de raffinement Event-B à partir d'un modèle de buts fonctionnels SysML/KAOS. Cette mise en œuvre s'appuie principalement sur les technologies de transformation de modèles à modèles
Los estilos APA, Harvard, Vancouver, ISO, etc.
48

Machara, Marquez Samer. "Models and algorithms for managing quality of context and respect for privacy in the Internet of Things". Thesis, Université Paris-Saclay (ComUE), 2015. http://www.theses.fr/2015SACLL005/document.

Texto completo
Resumen
L’Internet des Objets (IdO) est un nouveau paradigme, dont l’idée de base est d’avoir un grand nombre d’objets de façon ubiquitaire. Ces objets sont capables d’interagir les uns avec les autres et de coopérer avec leurs voisins en partageant des données acquises directement en mesurant certains faits. Tout cela, afin d’atteindre des objectifs communs. Cette information ne représente pas seulement l’état des utilisateurs, mais aussi les processus dans lesquels ils sont impliqués, on appelle cela le Contexte. Le Contexte informe à la fois la reconnaissance et le mappage des opérations en fournissant une vue structurée et unifiée du monde dans lequel un système fonctionne.Avec l’IdO, de nombreuses applications récupèrent des informations de contexte concernant les utilisateurs (propriétaires de contexte) tels que, leurs habitudes, leurs comportements et leur «sentiment» (état de santé). Ceci, offre alors beaucoup d’avantages pour les utilisateurs, mais au dépend de leur intimité. La problématique de recherche de cette thèse se situe dans la vision orientée sémantique de l’IdO. Dans ce cadre, les technologies sémantiques jouent un rôle clé dans l’exploitation des solutions de modélisation parfaitement appropriée pour intégrer la notion de sécurité de la vie privée dans l’IdO. Les applications et services (consommateurs de contexte), qui sont sensibles au contexte, attendent des données de contexte correctes et fiables afin d’adapter leurs fonctionnalités. Dans cette thèse, la qualité de Contexte (QoC) est une métadonnée qui est associée aux informations de contexte. Elle décrit une série de critères exprimant la qualité de l’information de contexte. Ces métadonnées peuvent être utilisées pour déterminer la valeur de l’information pour une application particulière dans une situation particulière. Nous explorons des solutions intergicielles et des structures logiciels pour intégrer la gestion de la vie privée et QoC dans l’IdO.Cette thèse se distingue des autres recherches du domaine de la gestion de contexte et tient compte du découplage des participants IdO; à savoir, les propriétaires des informations de contexte et les consommateurs de ces informations de contexte. De plus, nous considérons la QoC comme un facteur affectant la vie privée des individus. Cette thèse fournit les contributions suivantes selon deux axes: Axe 1: Concevoir un contexte contrat méta-modèle pour définir la vie privée et QoC pour exprimer les préoccupations des propriétaires et consommateurs de contexte; basé sur la confiance réciproque, puisque les deux sont découplés. Cette conception est basée sur deux points : Premièrement, nous considérons que la vie privée est la capacité des propriétaires de contexte à contrôler quoi, comment, quand, où et avec qui partager des informations. Par conséquent, nous identifions quatre dimensions de la vie privée (le but, la visibilité, la rétention, la QoC), pour les utiliser au moment de la définition des politiques et des obligations d’accès. Deuxièmement, les consommateurs de contexte attendent un certain niveau de QoC afin d’accomplir leurs tâches. Nous proposons alors de définir deux types de contrat de contexte : le premier, pour la partie producteur et un second pour le côté du consommateur.Axe 2 : Proposer un algorithme pour créer des accords entre les producteurs et les consommateurs de contexte en évaluant et en comparant les exigences par rapport aux garanties indiquées sur leurs contrats de contexte respectives.Comme les deux participants de l’IdO ont des contrats symétriques, quand un participant définit ses besoins, l’autre définit ses garanties. Le processus de correspondance de ces contrats de contexte vérifie si les exigences de l’une des parties sont incluses dans les garanties offertes par l’autre partie.A partir de cette définition, nous avons conçu des algorithmes pour déterminer si l’accès et la consommation sont autorisés ou non, selon la correspondance des contrats de contexte
The Internet of Things (IoT) is a novel paradigm, which basic idea is the pervasive presence around us of a variety of things or objects that are able to interact with each other and cooperate with their neighbors by sharing data, directly acquired by measuring some facts, in order to reach common goals. This information not only represents the state of users but also the processes in which they are involved, this is called the Context. The context informs both recognition and mapping operations by providing a structured, unified view of the world in which a system operates. With the IoT, many applications consume context information concerning users (context owners) such as, daily routines, behaviors and health, offering lots of benefits to users, but compromising their privacy. The re-search problematic of this thesis lies within the “semantic-oriented” IoT vision. In this context, semantic technologies play a key role in exploiting appropriate modelling solutions for integrating privacy security into the IoT. Context-aware applications and services (context consumers) expect correct and reliable context data to adapt their functionalities. In this thesis the Quality of Context (QoC) is meta-data attached to context information describing a range of criteria that express context information quality. These meta-data can be used to determine the worth of the information for a particular application in a particular situation. We explore middleware and framework solutions to integrate the management of privacy and QoC in the IoT. This thesis is distinguished from other context management domain researches by bearing in mind the decoupling of the IoT participants, i.e., the owners of context information and the consumers of this context information. Moreover, we consider the QoC as a factor affecting the privacy of individuals. This thesis provides the following contributions along two axis: 1. Designing a Context Contract Meta-model to define privacy and QoC concerns of decoupled context owners and context consumers based on reciprocal trust. This design is based on two points. Firstly, we consider that privacy is the capacity of context owners to control what, how, when, where and with whom to share information. Therefore, we identify four privacy dimensions (purpose, visibility, retention, QoC), and use them in the definition of access policies and obligations. Secondly, context consumers expect a certain QoC level in order to perform their tasks. We then propose to define two kinds of context contract for the producer and the consumer sides as follows: Context producer contract: A context contract whose clauses are expressions of the production of context data, of privacy requirements, and of QoC guarantees; Context consumer contract: A context contract whose clauses are expressions of the consumption of context data, of QoC requirements, and of privacy guarantees. Each context contract is created without the knowledge of is counter party.2. Proposing an algorithm to create agreements among context producers and context consumers by evaluating and compare requirements against guarantees, stated on their respective context contracts. As both IoT participants have symmetric contracts, when one participant defines its requirements, the other one defines its guarantees. The matching process of these context contracts verifies if the requirements of one party are included within the guarantees offered by the other party. Therefore, taking a decision based on this compatibility match from the producer point of view is to permit or deny the access to context data. Complementarily, from a consumer point of view, the consumption of context data is permitted or denied. From this definition, we designed algorithms to determine whether access and consumption are authorized or not, according to the context contracts matching
Los estilos APA, Harvard, Vancouver, ISO, etc.
49

Sango, Marc. "Traceability of concerns and observer-based verification for railway safety-critical software". Thesis, Lille 1, 2015. http://www.theses.fr/2015LIL10067/document.

Texto completo
Resumen
Ces dernières années, le monde des systèmes critiques a connu un véritable essor en matière de demande de logiciels. Dans une optique majeure de réduction des coûts de développement, les grands acteurs du monde critique comme ceux de l’avionique et de l’automobile s’orientent de plus en plus vers l’ingénierie dirigée par les modèles. Par contre les acteurs du domaine ferroviaire, pour des raisons stratégiques et organisationnelles restent encore fidèles à des méthodes conventionnelles qui leur permettent de tirer au maximum profit de leurs compétences. Cependant, ces approches conventionnelles souffrent d’un manque d’abstraction pour la traçabilité des préoccupations et la vérification formelle, qui sont fortement recommandées dans le développement des logiciels critiques dans le domaine ferroviaire. Pour faire face à ces limitations, nous présentons dans cette thèse une approche systématique basée sur l’ingénierie dirigée par les modèles à base de composants, de façon à maîtriser au mieux la complexité des logiciels et la traçabilité des préoccupations. Nous proposons notamment trois contributions essentielles. En premier lieu, nous fournissons un ensemble uniformisé de méta-modèles permettant de décrire les préoccupations des exigences logicielles, les composants logiciels, et la traçabilité entre les préoccupations et ces composants logiciels. Avec la deuxième contribution, nous proposons un support formel de notre modèle pour en permettre la vérification formelle. Finalement, la dernière contribution propose une approche de développement et de vérification à base de composants logiciels, nommée SARA pour "SAfety-critical RAilway control applications". Nous avons validé notre approche avec quelques cas d’études du nouveau système européen de contrôle de train, ERTMS/ETCS
In recent years, the development of critical systems demands more and more software. In order to reduce their costs of development and verification, actors in critical domains, such as avionics and automotive domains, are moving more and more towards model-driven engineering. In contrast, in the railway domain, for strategic and organizational reasons, actors remain faithful to traditional methods that allow them to take advantage of their knowledge. However, these conventional approaches suffer from a lack of abstraction and do not provide supports for traceability of concerns and formal verification, which are highly recommended for the development of railway safety-critical software. To address these shortcomings, we present in this thesis a systematic approach based on model driven engineering and component-based model, in order to better manage software complexity and traceability of concerns. In this dissertation, we provide in particular three major contributions. First, we provide an integrated set of meta-models for describing the concerns of software requirements, software components, and traceability between the concerns and software components. With the second contribution, we propose a formal support of our model to allow formal verification of temporal properties. Finally, with the last contribution, we propose a software component-based development and verification approach, called SARA, and included in V-lifecycle widely used in the railway domain. Experiments we conducted to validate our approach through a few case studies of the new European train control system ERTMS/ETCS, show that by using component model that explicitly include requirement traceability, we are able to provide a practical, scalable and reliable approach
Los estilos APA, Harvard, Vancouver, ISO, etc.
50

Lieber, Romain. "Spécification d'exigences physico-physiologiques en ingénierie d'un système support de maintenance aéronautique". Electronic Thesis or Diss., Université de Lorraine, 2013. http://www.theses.fr/2013LORR0197.

Texto completo
Resumen
Le cadre prescrit de l'ingénierie système, avant tout centré sur les systèmes techniques, doit évoluer pour permettre de prendre en compte dès la phase de spécification système les interactions critiques des systèmes homme-machine tels que le système de maintenance aéronautique. L'objectif est d'assurer que le comportement de ce type de système, dépendant des synergies entre les différentes interactions qui prennent place entre les constituants techniques et humains, soit maintenu dans un domaine de performances acceptables. La démarche d'intégration des facteurs humains en Ingénierie Système consiste alors à s'intéresser à la performance globale des diverses interfaces des systèmes homme-machine. Ces interfaces sont le siège d'interactions émergeantes complexes, dont certaines sont recherchées pour faciliter la performance globale visée et la résilience face à un environnement perturbateur non anticipé, et d'autres construites pour finaliser le système en regard de sa mission. Le paradigme exploré par nos travaux se fonde sur la possibilité de faire inter-opérer des modèles de processus physiologiques avec des modèles de processus techniques en spécification d'interaction homme-machine, en combinant un cadre de Modélisation Système avec celui Mathématique et Computationnel de la Physiologie Intégrative. Notre travail se focalise sur la spécification d'exigences physico-physiologiques d'une interaction de perception visuelle, modélisées avec SysML, pour que l'opérateur humain perçoive bien les propriétés symboliques "affordées" par les objets techniques qu'il doit maintenir dans des contextes opérationnels variables. Les résultats de ces travaux de spécification nous amène à proposer une nouvelle organisation d'une ingénierie système support de maintenance basée sur les modèles
Current Systems Engineering framework must evolve in order to take into account the critical interactions of human-machine systems since the specification phase. The objective is to ensure that the behavior of such systems is kept within an accepted domain of performances whatever is the context of use. Those performances depend on the synergies of the different interactions that take place between technical and human systems when operating a common object. Human Factors Integration in Systems Engineering also known as Human Systems Integration implies to start working on the overall performance of all the interfaces of a human-machine system. These different interfaces exhibit emerging complex interactions. Some of them are inquired to ease the whole system performances and facilitate system resilience capabilities within disruptive unanticipated environment. Other ones are designed to finalize the system mission according to the purpose of its context of use. The paradigm we have explored in our work is based on the hypothesis of possible inter-operations between physiological and technical processes for human-machine interaction specification by coupling a System Modeling Framework with the Mathematical Theory of Integrative Physiology one. Our work focuses on the physical and physiological requirements specification (modeled with SysML) of a visual perceptive interaction for human to perceive right the meaning of symbolic properties technical objects afford when they are being maintained in variable contextualized situations. Our specification work results lead us to propose a Model-Based Support Systems Engineering organization
Los estilos APA, Harvard, Vancouver, ISO, etc.
Ofrecemos descuentos en todos los planes premium para autores cuyas obras están incluidas en selecciones literarias temáticas. ¡Contáctenos para obtener un código promocional único!

Pasar a la bibliografía