Thèses sur le sujet « Systèmes informatiques – Qualité »

Pour voir les autres types de publications sur ce sujet consultez le lien suivant : Systèmes informatiques – Qualité.

Créez une référence correcte selon les styles APA, MLA, Chicago, Harvard et plusieurs autres

Choisissez une source :

Consultez les 50 meilleures thèses pour votre recherche sur le sujet « Systèmes informatiques – Qualité ».

À côté de chaque source dans la liste de références il y a un bouton « Ajouter à la bibliographie ». Cliquez sur ce bouton, et nous générerons automatiquement la référence bibliographique pour la source choisie selon votre style de citation préféré : APA, MLA, Harvard, Vancouver, Chicago, etc.

Vous pouvez aussi télécharger le texte intégral de la publication scolaire au format pdf et consulter son résumé en ligne lorsque ces informations sont inclues dans les métadonnées.

Parcourez les thèses sur diverses disciplines et organisez correctement votre bibliographie.

1

Chabini, Noureddine. « Méthodes pour améliorer la qualité des implantations matérielles de systèmes informatiques ». Thesis, National Library of Canada = Bibliothèque nationale du Canada, 2001. http://www.collectionscanada.ca/obj/s4/f2/dsk3/ftp05/NQ65350.pdf.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
2

Le, Parc Philippe. « Méthodes et outils informatiques pour la commande locale ou distante de systèmes réactifs ». Habilitation à diriger des recherches, Université de Bretagne occidentale - Brest, 2004. http://tel.archives-ouvertes.fr/tel-00496850.

Texte intégral
Résumé :
Ce document résume mon activité de recherche depuis 1991. Elle a porté sur deux thématiques connexes : la modélisation et la validation de langages métier de l'automatisme et le contrôle à distance de systèmes mécaniques sur des réseaux de communication non fiables. Le premier axe de recherche portait plus précisément sur la définition formelle des langages classiques de l'automatisme (langage à relais et Grafcet) à l'aide des formalismes synchrones tels que Signal ou Lustre. L'intérêt d'un tel travail était de pouvoir exprimer les différentes interprétations possibles d'un même programme afin de pouvoir les comparer ; les environnements développés autour des formalismes synchrones permettant alors la réalisation directe de simulateurs ainsi que l'ouverture vers des outils autorisant la validation des programmes. Dans ce dernier domaine, différentes pistes ont été étudiées avant de retenir une modélisation à l'aide d'automates temporisés permettant alors l'expression de propriétés temporelles sur les programmes modélisés. Le deuxième axe de travail avait et a pour objectif d'étudier la faisabilité de l'introduction des nouvelles technologies, et en particulier des technologies réseau, dans le contrôle supervisé de systèmes mécaniques. Le réseau est ici vu comme un réseau sans qualité de service, de type Internet, alors que l'une des préoccupations majeures des automaticiens est d'assurer une sécurité maximale. Dans un premier temps, nous avons proposé une architecture logicielle permettant la communication entre l'opérateur et le système à contrôler. Basée sur un noyau de services complété par des pilotes spécifiques aux applications cibles, elle est facilement extensible. Pour prendre en compte les aléas réseau, la méthodologie Gemma, utilisée en ingéniérie des automatismes, a été étendue afin d'intégrer des informations en provenance d'un capteur réseau. Ce dernier permet d'estimer la qualité de la connexion d'un bout à l'autre du système de communication et doit être pris en compte automatiquement, et en permanence, par le système afin d'assurer la sécurité du contrôle supervisé. Bien que différentes, ces deux thématiques se rejoignent sur de nombreux points : --- Le domaine d'application, c'est à dire le contrôle de systèmes en environnement de production industriel. D'un côté, on a cherché à assurer une meilleure qualité, de la spécification à l'implantation en passant par la vérification des applications. De l'autre en proposant l'utilisation des nouvelles technologies de communication pour améliorer la productivité globale de l'entreprise. --- L'utilisation et l'introduction des méthodes et des outils de l'informaticien auprès de la communauté des automaticiens. Dans mon premier domaine de recherche, par l'intermédiaire du monde dit "synchrone" et dans le deuxième par la mise en oeuvre des technologies autour de l'Internet. Dans les deux cas, les technologies informatiques se sont placées au service d'autres disciplines tout en essayant de faire ressortir les points difficiles et de proposer des solutions innovantes. --- Le souci permanent de construire des applications sûres et de valider, si possible de manière formelle, les résultats obtenus. Cet aspect est surtout visible dans le cadre de la première activité de recherche, mais des travaux, non encore achevés, ont également porté sur la validation de l'architecture logicielle proposée pour le contrôle à distance. Ils sont directement issus des connaissances et de l'expérience acquises dans le premier thème.
Styles APA, Harvard, Vancouver, ISO, etc.
3

Pucel, Xavier. « A unified point of view on diagnosability ». Toulouse, INSA, 2008. http://eprint.insa-toulouse.fr/archive/00000237/.

Texte intégral
Résumé :
Le problème du diagnostic de défaillances à base de modèle dans les systèmes complexes a reçu un intérêt croissant durant les dernières décennies. Ce problème doit être pris en compte dés la phase de conception du système, au moyen de l'analyse de la diagnosticabilité. La diagnosticabilité est la propriété d'un système consistant à exhiber des symptômes différents pour un ensemble de situations de défaillances anticipées. Plusieurs approches ont été développées basées sur différents formalismes de modélisation, toutefois les raisonnements menant à la diagnosticabilité sont très semblables dans toutes ces approches. Cette thèse développe une comparaison des approches existantes et établit une définition unifiée de la diagnosticabilité. Une nouvelle approche pour l'analyse de diagnosticabilité, basée sur les modes de faute partiels, est décrite et implémentée dans le contexte des architectures orientées services, plus précisément sur des web services. Une nouvelle généralisation de la définition de la diagnosticabilité à n'importe quel ensemble d'état est présentée, qui permet de prendre en compte de nouveaux types de propriétés, comme les préconditions de réparation, ou la qualité de service. Ces travaux ouvrent des perspectives pour le raisonnement de diagnosticabilité indépendant du modèle, pour la diagnosticabilité basée sur d'autres types de modèles, ainsi que pour l'intégration du diagnostic dans un outil de surveillance plus général. Le diagnostic et l'analyse de diagnosticabilité des systèmes logiciels est encore un domaine jeune, et ouvre de nombreuses connections avec le domaine de la sécurité informatique
The problem of model-based fault diagnosis in complex systems has received an increasing interest over the past decades. Experience has proved that it needs to be taken into account during the system design stage, by means of diagnosability analysis. Diagnosability is the ability of a system to exhibit different symptoms for a set of anticipated fault situations. Several approaches for diagnosability have been developed using different modelling formalisms. , yet the reasoning for diagnosability analysis is very similar in all these approaches. This thesis provides a comparison of these and a unified definition of diagnosability. An original approach for diagnosability analysis, based on partial fault modes, is described and implemented in the context of service oriented architecture, more precisely on web services. An original generalization of the definition of diagnosability to any set of system states is presented, that accounts for many kinds of properties, like repair preconditions or quality of service. This work opens perspectives for model independent diagnosability reasoning, diagnosability based on other types of models, and in integrating diagnosis into a general purpose supervision tool. Model-based diagnosis and diagnosability of software systems is still a young applicative domain, and opens many connections with the software safety engineering domain
Styles APA, Harvard, Vancouver, ISO, etc.
4

Cambolive, Guillaume. « Scrables : un système intelligent d'audit ». Toulouse 3, 1993. http://www.theses.fr/1993TOU30237.

Texte intégral
Résumé :
Cette these decrit les travaux realises pour repondre aux besoins des auditeurs en matiere de systemes d'informations. Ces travaux se situent a l'intersection de deux domaines: celui des systemes d'informations et celui de l'intelligence artificielle distribuee. Realiser un audit necessite des connaissances multi-domaines et la mise en uvre d'une demarche de resolution de probleme hierarchique et en partie opportuniste. Le systeme d'information a la disposition des auditeurs est constitue principalement de documents a structures complexes. L'auteur definit dans un premier temps un modele de description de documents a structures complexes et une approche de conception et d'exploitation de ces documents. L'auteur traite dans un second temps l'aspect systeme intelligent. Il caracterise les connaissances et la demarche d'audit. Il definit ensuite un modele et un systeme a architecture de type tableau noir. En dernier lieu, l'auteur traite l'interconnection du systeme intelligent avec le systeme de gestion de documents. Celle-ci permet au systeme intelligent de recevoir des donnees issues des documents, et de leur renvoyer ses analyses et resultats
Styles APA, Harvard, Vancouver, ISO, etc.
5

Khemaja, Maha. « Scrables : un système de conception et d'exploitation de documents structurés ». Toulouse 3, 1993. http://www.theses.fr/1993TOU30275.

Texte intégral
Résumé :
Cette these s'inscrit dans le contexte des systemes de conception et d'utilisation assistee de documents. Elle decrit une approche et un outil appeles scrables (systeme de conception de rapports d'audit base sur un langage d'expression de structures). La conception des documents selon scrables est basee sur une description tres detaillee de leurs structures logiques et physiques. Grace a celles-ci, l'exploitation de ces documents selon une approche hypertexte est rendue possible. L'integration dans les documents de nouveaux types de liens, en particulier ceux qui sont specifiques aux documents d'audit a ete realisee. L'exploitation de la semantique liee a ces liens constitue une aide importante aux utilisateurs des documents. Certains de ces nouveaux types de liens ont ete introduits dans le but de permettre et de faciliter le recueil des connaissances a partir des documents, connaissances indispensables pour la mise en place d'un systeme intelligent d'aide a l'audit communicant avec les documents. Scrables est aujourd'hui complet, coherent et integre. Il est utilise par des auditeurs bancaires
Styles APA, Harvard, Vancouver, ISO, etc.
6

Chahed, Tijani. « La qualité de service de bout en bout dans l'Internet : mapping de la QoS entre IP et ATM, services intégrés et services différenciés ». Versailles-St Quentin en Yvelines, 2000. http://www.theses.fr/2000VERS003V.

Texte intégral
Résumé :
La QoS relève de l'intégralité du système de bout en bout. Dans un environnement hétérogène, le but est d'offrir un service continu, borné et de bout en bout. Ceci requière une traduction de la QoS, en terme d'architectures et de services mais surtout de paramètres de QoS, entre les couches et sous-réseaux du chemin de bout en bout. Dans ce travail, nous traduisons les paramètres de QoS, aussi bien qualitativement que quantitativement, entre l'IP et l'ATM et entre intserv et diffserv. Dans IP sur ATM, nous traduisons d'abord le backlog et le délai maximaux entre les différentes couches, en utilisant le network calculs (nc), une approche déterministe de courbes de service. Ensuite, nous nous intéressons au cas des trois classes intserv servis par un commutateur ATM implantant une discipline de service discriminatoire. Nos résultats permettent le dimensionnement des tampons à chaque couche et offrent une borne sur le délai de bout en bout. Aussi, nous étudions le trafic non-conforme et les systèmes congestionnés. Le nc ne s'appliquant qu'aux systèmes sans perte, nous introduisons la perte dans le nc en imposant des bornes soit sur la taille du tampon soit sur le délai au niveau d'un élément de réseau donné et quantifions son impact dans les couches suivantes. Ainsi, nous obtenons une traduction de la perte et du délai entre IP et ATM le vision tout-IP de bout en bout situe intserv a la périphérie des grands réseaux ou diffserv, une architecture scalable, est implantée. Dans ce contexte, nous traduisons la perte et le délai entre le flux individuel intserv et l'agrégat diffserv. Une approche déterministe au niveau paquet nous révèle la présence de synchronisme qui résulte en une distribution biaisée de la perte et du délai entre les flux intserv de l'agrégat diffserv. La perte au niveau diffserv engendre une perte successive au niveau intserv. Quant au délai, le synchronisme fait qu'un paquet subit un délai maximal à chaque serveur du chemin de bout en bout.
Styles APA, Harvard, Vancouver, ISO, etc.
7

Goichon, François. « Equité d'accès aux ressources dans les systèmes partagés best-effort ». Phd thesis, INSA de Lyon, 2013. http://tel.archives-ouvertes.fr/tel-00921313.

Texte intégral
Résumé :
Au cours de la dernière décennie, l'industrie du service informatique s'est métamorphosée afin de répondre à des besoins client croissants en termes de disponibilité, de performance ou de capacité de stockage des systèmes informatisés. Afin de faire face à ces demandes, les hébergeurs d'infrastructures ont naturellement adopté le partage de systèmes où les charges de travail de différents clients sont exécutées simultanément. Cette technique, mutualisant les ressources à disposition d'un système entre les utilisateurs, permet aux hébergeurs de réduire le coût de maintenance de leurs infrastructures, mais pose des problèmes d'interférence de performance et d'équité d'accès aux ressources. Nous désignons par le terme systèmes partagés best-effort les systèmes dont la gestion de ressources est centrée autour d'une maximisation de l'usage des ressources à disposition, tout en garantissant une répartition équitable entre les différents utilisateurs. Dans ce travail, nous soulignons la possibilité pour un utilisateur abusif d'attaquer les ressources d'une plateforme partagée afin de réduire de manière significative la qualité de service fournie aux autres utilisateurs concurrents. Le manque de métriques génériques aux différentes ressources, ainsi que le compromis naturel entre équité et optimisation des performances forment les causes principales des problèmes rencontrés dans ces systèmes. Nous introduisons le temps d'utilisation comme métrique générique de consommation des ressources, métrique s'adaptant aux différentes ressources gérées par les systèmes partagés best-effort. Ceci nous amène à la spécification de couches de contrôles génériques, transparentes et automatisées d'application de politiques d'équité garantissant une utilisation maximisée des ressources régulées. Notre prototype, implémenté au sein du noyau Linux, nous permet d'évaluer l'apport de notre approche pour la régulation des surcharges d'utilisation mémoire. Nous observons une amélioration significative de la performance d'applications typiques des systèmes partagés best-effort en temps de contention mémoire. De plus, notre technique borne l'impact d'applications abusives sur d'autres applications légitimes concurrentes, puisque l'incertitude sur les durées d'exécution est naturellement amoindrie.
Styles APA, Harvard, Vancouver, ISO, etc.
8

Layouni, Mouna farah. « Architecture pour la fédération de cercles de confiance dans une approche Système de systèmes ». Electronic Thesis or Diss., Paris, CNAM, 2013. http://www.theses.fr/2013CNAM0898.

Texte intégral
Résumé :
La maitrise de la complexité croissante tant de nos organisations socioéconomiques que de nos systèmes et infrastructures technologiques, impose des systèmes informatiques de plus en plus intégrés. L’organisation de nos sociétés avancées ne pourrait plus se développer dans des conditions raisonnables sans le support des technologies de l’information. Les différents systèmes d’information s’intègrent ainsi de plus en plus en un maillage informationnel formant ainsi un système de systèmes qui se complexifie de jour en jour et de ce fait devient de plus en plus vital. Ces systèmes des systèmes doivent répondre à deux types d’objectifs : i) la réalisation d’un système par l’intégration de systèmes offerts par différents fournisseurs, ii) l’interopération de systèmes déjà en service en vue d’obtenir des propriétés nouvelles dues à leur coopération, généralement avec une augmentation d’efficacité. Ces objectifs et cette complexité ne peuvent être appréhendés par une démarche purement analytique. C’est pourquoi nous avons préconisé à travers cette thèse une solution de système de systèmes basée sur un graphe d'interopérabilité construit sur une comparaison hiérarchique ontologique. La mise en œuvre de cette approche à travers l’utilisation d’une plateforme d’agents mobile permet une recherche dynamique de services visant à satisfaire au mieux les critères de qualité exigés par l’utilisateur
Mastering the increasing complexity of our socio-economic organizations and technology infrastructure requires more and more integrated information systems. The organization of our advanced societies could no longer grow on reasonable terms without the support of information technology.The different information systems belongs more and more to an informational meshing, forming in this way a complex system of systems which is getting complex day after day and because of that is becoming increasingly vital.This system of systems must meet two objectives: i) implementation of a system by integrating systems offered by different providers, ii) interoperation of systems already in use in order to obtain new properties due to their cooperation, usually with an efficiency increase.These objectives and this complexity can be grasped by a purely analytical approach. That is why we have advocated throughout this thesis a solution of system of systems based on an interoperability graph built on a hierarchical ontological comparison (foundation of trust). The platform of mobile agents associated with this system will implement a dynamic search of services which tries to satisfy the quality criteria required by the user
Styles APA, Harvard, Vancouver, ISO, etc.
9

Gawedzki, Ignacy. « Algorithmes distribués pour la sécurité et la qualité de service dans les réseaux ad hoc mobiles ». Paris 11, 2008. http://www.theses.fr/2008PA112240.

Texte intégral
Résumé :
Les protocoles de routage pour réseaux ad hoc actuels supposent l'absence totale de participants malveillants, alors que cette hypothèse est souvent contredite dans les applications. Nous avons cherché à enrichir les protocoles dits proactifs pour permettre aux nœuds de surveiller le réseau de manière distribuée et de mesurer la menace représentée par chacun des autres nœuds. Cette mesure sert à extraire une métrique de qualité de service utilisée ensuite par le protocole de routage pour contourner les nœuds les plus suspects d'après les différentes méthodes de détection utilisées. Nous proposons de détecter la perte de paquets de données, intentionnelle ou non. La détection est réalisée par une vérification distribuée du principe de conservation de flot, basée sur l'échange de compteurs de paquets entre voisins. Nous proposons également une méthode de diffusion de ces valeurs qui permet un meilleur passage à l'échelle. Cette détection ne sert qu'à maintenir un degré de suspicion local qui, une fois diffusé à tout le réseau et recombiné par les autres nœud, produit une métrique de suspicion globale envers chaque nœud. L'application au protocole OLSR est décrite et ses performances évaluées par simulation. Nous montrons que la solution est efficace et que l'impact du surcoût de contrôle sur la capacité du médium reste faible. Nous présentons enfin une plateforme expérimentale du protocole OLSR avec qualité de service et sécurité, servant à faire fonctionner nos solutions dans des mises en place réelles pour déceler les problèmes qui apparaissent lors de l'utilisation de matériel grand public
Currently available routing protocols for ad hoc networks assume the total absence of malicious participants, although this assumption is seldom true in practical applications. In this work, we look for a way to augment proactive protocols so as to let nodes watch over the network in a distributed fashion and measure the threat represented by every node. The measurement is used to extract a quality of service metric used in turn by the routing protocol to avoid the most suspected nodes, according to all the implemented detection methods. We propose to detect data packet loss, be it intentional or not. The detection is performed by a verification of the principle of flow conservation, based on the exchange of packet counters between neighbors. A scalable method of diffusion of these values is also proposed. The actual checking is used to maintain a local degree of distrust which is diffused in all the network and recombined by the nodes into a global metric of distrust in each node. The application to the OLSR protocol is described and its performance evaluated by simulation. We show that the solution is efficient and that the impact of the control overhead on the medium capacity remains low. Finally, an experimental platform of OLSR with quality of service and security is presented, which is aimed at making our solutions work in an actual real setup in order to reveal any potential problem that may appear with the use of commercial off-the-shelf hardware
Styles APA, Harvard, Vancouver, ISO, etc.
10

Nassrallah, Rabih. « Modèle domanial pour la gestion et le contrôle de la qualité de service de bout en bout dans les réseaux IP hétérogènes ». Troyes, 2007. http://www.theses.fr/2007TROY0014.

Texte intégral
Résumé :
Les utilisations du réseau Internet se sont développées ses dernières années et intègrent maintenant de nouveaux services IP. Au contraire des applications dites élastiques, ces services évolués induisent des contraintes pour leurs fonctionnements. Cependant, le réseau IP classique dit Best Effort a été conçu pour transporter des informations sans garantie de délai ni de disponibilité de bande passante. Plusieurs évolutions du réseau ont cependant permis de prendre en compte les exigences de qualité de service des applications dans un domaine unique administré globalement par un opérateur. Dans ce mémoire, nous nous intéressons à la problématique de la qualité de service de bout en bout dans un environnement multi-domaines. Nous nous focalisons sur l’aspect hétérogène de la maîtrise de la qualité de service des domaines qui peut conduire à un traitement incohérent des paquets d’une même application à travers les différents réseaux entraînant ainsi une dégradation du service. Cette thèse propose un modèle pour le contrôle de la qualité de service de bout en bout et pour la gestion des ressources de bande passante des réseaux. Ce modèle doit permettre aux opérateurs d’offrir un service homogène aux flux applicatifs de bout en bout dans un environnement réel. Notre modèle s’appuie sur une évaluation de la qualité de service de bout en bout préalable à l’admission d’un flux prioritaire dans le réseau, associée à une surveillance de cette qualité sur toute la durée du service
The uses of Internet network extended in last years by integrating new services IP. Contrary to the applications known as elastic, these advanced services induce constraints for their operations. However, traditional network IP (Best Effort) was conceived to transport information without guarantee neither of time nor of availability of bandwidth. Several evolutions of the network however made it possible to take into account the requirements for quality of service of the applications in a single domain managed overall by an operator. In this document, we are interested in the problem of the en-to-end quality of service over multiple domains networks. We focus on the heterogeneous aspect of the quality of service control over theses domains that can lead to an incoherent treatment of the IP packet of the same application through the various networks thus resulting a degradation of the service. This thesis proposes a model for the control of the en-to-end quality of service and the available bandwidth management over various networks. This model must help the operators to offer a homogeneous en-to-end service to flows in a real environment such as the Internet. Our model is based on an evaluation of the en-to-end quality of service prior to the flow admission in the network, associated to a degradation monitoring over all the duration of the service
Styles APA, Harvard, Vancouver, ISO, etc.
11

Lambert, Anthony. « Méthodes pour l'amélioration de la qualité dans l'Internet inter-domaine ». Compiègne, 2009. http://www.theses.fr/2009COMP1826.

Texte intégral
Résumé :
Les différents réseaux qui composent l’Internet sont regroupés au sein d’entités appelées systèmes autonomes (AS) et sont administrés unilatéralement par différents types d’acteurs. Afin d’assurer la connectivité et l’accessibilité totale, les AS s’interconnectent et s'échangent des informations sur les moyens de joindre les réseaux qu’ils hébergent par le biais du protocole BGP. L’objet de la thèse est la conception et la validation de nouveaux mécanismes permettant d’améliorer la qualité du transport des flux de trafic dans l’Internet inter-domaine. Les travaux menés ont tout d’abord visé à obtenir une meilleure compréhension de la dynamique inter-domaine et de ses causes au travers du développement de méthodes de tomographie et de Root Cause Analysis. Puis, après exploitation des résultats obtenus, nous nous sommes attachés à développer une méthode de construction de temporisateurs ”efficaces” qui appliquée à BGP permet la réduction du phénomène de path exploration
The Internet is made of thousands of networks gathered into Autonomous Systems (AS) and controlled by various kinds of administrative entities. In order to provide full connectivity and reachability to the Internet, the AS connect to one another and exchange routing information about their networks through the BGP protocol. This thesis was all about developing new methods to improve the Quality of Service in the Internet at the AS level granularity. We first focused on improving our knowledge of the inter-domain dynamics through tomography and Root Cause Analysis studies. Then, based on the results of these studies, we have developed new timers, which reduce the path exploration phenomenon when applied to the BGP protocol
Styles APA, Harvard, Vancouver, ISO, etc.
12

Layouni, Mouna farah. « Architecture pour la fédération de cercles de confiance dans une approche Système de systèmes ». Thesis, Paris, CNAM, 2013. http://www.theses.fr/2013CNAM0898.

Texte intégral
Résumé :
La maitrise de la complexité croissante tant de nos organisations socioéconomiques que de nos systèmes et infrastructures technologiques, impose des systèmes informatiques de plus en plus intégrés. L’organisation de nos sociétés avancées ne pourrait plus se développer dans des conditions raisonnables sans le support des technologies de l’information. Les différents systèmes d’information s’intègrent ainsi de plus en plus en un maillage informationnel formant ainsi un système de systèmes qui se complexifie de jour en jour et de ce fait devient de plus en plus vital. Ces systèmes des systèmes doivent répondre à deux types d’objectifs : i) la réalisation d’un système par l’intégration de systèmes offerts par différents fournisseurs, ii) l’interopération de systèmes déjà en service en vue d’obtenir des propriétés nouvelles dues à leur coopération, généralement avec une augmentation d’efficacité. Ces objectifs et cette complexité ne peuvent être appréhendés par une démarche purement analytique. C’est pourquoi nous avons préconisé à travers cette thèse une solution de système de systèmes basée sur un graphe d'interopérabilité construit sur une comparaison hiérarchique ontologique. La mise en œuvre de cette approche à travers l’utilisation d’une plateforme d’agents mobile permet une recherche dynamique de services visant à satisfaire au mieux les critères de qualité exigés par l’utilisateur
Mastering the increasing complexity of our socio-economic organizations and technology infrastructure requires more and more integrated information systems. The organization of our advanced societies could no longer grow on reasonable terms without the support of information technology.The different information systems belongs more and more to an informational meshing, forming in this way a complex system of systems which is getting complex day after day and because of that is becoming increasingly vital.This system of systems must meet two objectives: i) implementation of a system by integrating systems offered by different providers, ii) interoperation of systems already in use in order to obtain new properties due to their cooperation, usually with an efficiency increase.These objectives and this complexity can be grasped by a purely analytical approach. That is why we have advocated throughout this thesis a solution of system of systems based on an interoperability graph built on a hierarchical ontological comparison (foundation of trust). The platform of mobile agents associated with this system will implement a dynamic search of services which tries to satisfy the quality criteria required by the user
Styles APA, Harvard, Vancouver, ISO, etc.
13

Djouama, Amir. « Contrôle de topologie ambiant dans les réseaux sans fil ». Versailles-St Quentin en Yvelines, 2010. http://www.theses.fr/2010VERS0019.

Texte intégral
Résumé :
Avec l'évolution des systèmes de communication sans fil et la maîtrise croissante de la complexité dans le matériel, il devient possible de concevoir des architectures de réseau dynamiquement contrôlables et dotées d'une capacité de décision ambiante. Dans le cadre de la thèse on se propose, dans un premier temps, d'étudier et d'optimiser le contrôle d'un réseau composé de noeuds mobiles qui communiquent sans infrastructure. Deux niveaux de contrôle sont considérés, l'un se situant au niveau des couches inférieures tandis que l'autre adresse les aspects relatifs aux couches supérieures. Le contrôle dynnamique au niveau des couches inférieures concerne deux aspects : 1- l'adaptation de la topologie du réseau et du routage aux demandes venant des couches supérieures. 2- l'optimisation inter-couche (cross-layer) afin d'utiliser au mieux les ressources du réseau et en particulier la radio. Le contrôle dynamique au niveau des couches supérieures concerne la découverte et l'adaptation de l'application aux services de communications offertes par les couches inférieures. Dans un deuxième temps, nous étudions les contrôles d'admissions. Nous nous proposons de traiter les paramètres locaux de chaque noeud, qui sont intéressants pour la continuité des sessions. Une approche pour le contrôle d'admission est donnée et fait interagir la durée de vie des noeuds et des points d'attachement
With the evolution of the wireless communication systems and the increasing control of complexity in the material, it becomes possible to conceive network architectures dynamicaly controlable and equiped with a capacity of ambient decision. Within the framework of the thesis we propose to study and optimize the control of a network made up of mobile nodes wich communicate without infrastructure. Two levels of control will be considered, one being at the level of the lower layers while the other adresses the aspects relating to the higher layers. The dynamic control on the level of the lower layers relates to two aspects : 1- The adaptation of the topology of the network and the routing to the requests coming from the lower layers. 2- Optimization inter-layer (cross-layer) in order to use as well as possible the resources of the network and in particular the radio. The dynamic control on the level of the higher layer relates to the discovery and the adaptation of the application to the services of communications offered by the lower layers. In a second step, we study the admission control. We propose to study the local parameters of each node, wich are interesting for the continuity of sessions. An approach for admission control is given which interact lifetime of nodes and their point of attachment
Styles APA, Harvard, Vancouver, ISO, etc.
14

Vasilas, Dimitrios. « A flexible and decentralised approach to query processing for geo-distributed data systems ». Electronic Thesis or Diss., Sorbonne université, 2021. http://www.theses.fr/2021SORUS132.

Texte intégral
Résumé :
Cette thèse présente l'étude de la conception de systèmes de traitement de requêtes dans divers cadres géo-distribués. L'optimisation des mesures de performance telles que le temps de réponse, la fraîcheur ou le coût opérationnel implique des décisions de conception tel que le choix de l’état dérivé (indices, vues matérialisées, caches par ex.) à construire et maintenir, et la distribution et le placement de ces derniers et de leurs calculs. Ces métriques sont souvent opposées et les compromis dépendent de l'application et/ou de la spécificité de l'environnement. La capacité d'adapter la topologie et l'architecture du système de traitement de requêtes devient alors essentielle, ainsi que le placement de ses composants. Cette thèse apporte les contributions suivantes : - Une architecture flexible pour les systèmes de traitement de requêtes géo-distribués, basée sur des composants connectés dans un graphe bidirectionnel acyclique. - Une abstraction de micro-service et une API communes pour ces composants, le Query Processing Unit (QPU). Un QPU encapsule une tâche de traitement de requête primitive. Il existe plusieurs types de QPU qui peuvent être instanciés et composés en graphes complexes. - Un modèle pour construire des architectures de systèmes de traitement de requêtes modulaires composées d’une topologie distribuée de QPUs, permettant une conception flexible et des compromis selon les mesures de performance visées. - Proteus, un framework basé sur les QPU, permettant la construction et le déploiement de systèmes de traitement de requêtes. - Déploiements représentatifs de systèmes de traitement de requêtes à l'aide de Proteus, et leur évaluation expérimentale
This thesis studies the design of query processing systems, across a diversity of geo-distributed settings. Optimising performance metrics such as response time, freshness, or operational cost involves design decisions, such as what derived state (e.g., indexes, materialised views, or caches) to maintain, and how to distribute and where to place the corresponding computation and state. These metrics are often in tension, and the trade-offs depend on the specific application and/or environment. This requires the ability to adapt the query engine's topology and architecture, and the placement of its components. This thesis makes the following contributions: - A flexible architecture for geo-distributed query engines, based on components connected in a bidirectional acyclic graph. - A common microservice abstraction and API for these components, the Query Processing Unit (QPU). A QPU encapsulates some primitive query processing task. Multiple QPU types exist, which can be instantiated and composed into complex graphs. - A model for constructing modular query engine architectures as a distributed topology of QPUs, enabling flexible design and trade-offs between performance metrics. - Proteus, a QPU-based framework for constructing and deploying query engines. - Representative deployments of Proteus and experimental evaluation thereof
Styles APA, Harvard, Vancouver, ISO, etc.
15

Ribamar, Martins Bringel Filho José de. « CxtBAC : une famille de modèles de contrôle d’accès sensible au cotexte pour les environnements pervasifs ». Grenoble, 2010. http://www.theses.fr/2010GRENM059.

Texte intégral
Résumé :
Dans les environnements pervasifs, le constant changement du contexte d'utilisation des applications et des services distribués (i. E. , des ressources) impose de nouvelles exigences pour la définition des solutions de contrôle d'accès. Celles-ci concernait notamment la sensibilité au contexte et la mise en œuvre distribuée des politiques d'accès. Pour prendre en compte ces besoins, nous proposons une famille de modèles de contrôle d'accès, appelé CxtBAC (Context-Based Access Control), qui se compose de huit modèles conceptuels et permet d'explorer les informations contextuelles caractérisant les entités suivantes : le propriétaire de la ressource, l'environnement, l'utilisateur et la ressource elle-même. Contrairement aux propositions existantes, basées sur le modèle RBAC (Role-Based Access Control), la famille de modèle proposé est centrée sur la notion de contexte et non de rôle. Par conséquent, les décisions d'accès aux ressources protégées sont prises en considérant les informations contextuelles qui caractérisent la situation des entités impliquées. Pour décrire les règles d'accès, les permissions sont associées à des contextes d'accès et les utilisateurs sont associés dynamiquement à ces dernières. Les modèles proposés sont indépendants du langage de spécification de la politique de sécurité. Dans le cadre de cette thèse, nous proposons une solution pour la mise en ?uvre basée sur un formalisme d'ontologies
In persasive environments, with the possibility of offering users distributed access on applications and services, from anywhere and at anytime, new issues arise with regard to access control mechanism. Generaly, the existing access control solutions make static user-permission associations and are unaware of the situation (context) when defining and enforcing access control policies. In order to address these issues, we propose a family of Context-Based Access Control models, named CxtBAC (Context-Based Access Control), which is composed by eight conceptual models that can be used as basis to construct context-based access control solutions. CxtBAC models explore contextual information as central concept for assigning permissions to users. In fact, context information can describe the situation of resource owners, resource requestors, resources, and the environment around them. Unlike existing access control proposals such as RBAC-based solutions (Role-Based Access Control), CxtBAC makes access decisions taking into account the contextual information that characterizes the situation of involved entities (e. G. , resource owner and resource requestor). In a CxtBAC access rule, a set of permission is associated with an access context and users are dynamically associated with that access context. CxtBAC is independent of security policy language used to describe access control policies. As part of this work, we have proposed an implementation of CxtBAC policies based on ontologies and inference rules
Styles APA, Harvard, Vancouver, ISO, etc.
16

Elloumi, Imène. « Gestion de la mobilité inter réseaux d'accès et de la qualité de service dans une approche NGN/IMS ». Toulouse 3, 2012. http://thesesups.ups-tlse.fr/1852/.

Texte intégral
Résumé :
Dans le nouveau paysage de convergence multiservices de l'approche NGN/IMS et en considérant les besoins de l'utilisateur NGN qui est mobile dans un environnement très hétérogène, nous avons proposé des adaptations informationnelles, architecturales et organisationnelles. Ces adaptations permettent de surveiller la mobilité inter et intra réseaux et de garantir la continuité de la QoS de bout en bout dans un environnement mono et multi provider(s). En effet, nous avons constaté que les bases de connaissances des profils des utilisateurs manquaient d'informations de QoS. Notre première contribution est donc d'ordre informationnel. Des informations de QoS sont ajoutées à la base HSS afin de l'enrichir. Ce que nous y exprimons sous forme de " profil de QoSd ". Ces nouvelles informations renseignent directement sur les décisions à prendre en fonction du profil utilisateur (préférences de QoS et de tarification, bandwidth, localisation, etc. ). Ainsi cette nouvelle base de connaissances orientée QoS permettra les adaptations dynamiques et rendra, par conséquent, la session IMS plus efficace. Nous avons proposé une modélisation de ces informations de QoS relatives aux profils des utilisateurs et aux services IMS offerts en utilisant les classes CIM que nous appelons " Pattern d'information IMS orienté QoS ". Du point de vue architectural, nous avons été amenés à définir de nouveaux composants afin d'intercepter les nouvelles informations de QoS nécessaires pour gérer et garantir la QoS demandée lors d'une session IMS en temps réel. Cette deuxième contribution forme le sous système " Interworking QoS Management Subsystem : IQMS ". IQMS collecte les informations extraites des protocoles impliqués lors d'une session IMS mobile et gère la mobilité des utilisateurs (QoS handover et QoS interworking) et de la session. Notre troisième contribution consiste à proposer un sous-système organisationnel pour la gestion de la QoS supportant la personnalisation du service dans un environnement multi providers, où un utilisateur pourrait s'abonner à un ou plusieurs opérateurs selon des critères de QoS. Cette approche constitue notre " Interworking QoS Management Subsystem multiple providers: IQMSmp "
In the new landscape of multi-service convergence of the NGN/IMS approach and considering the needs of the user of NGN, that is mobile in a very heterogeneous environment, we have proposed informational, architectural and organizational adaptations in order to monitor the inter network mobility of access and ensure the complete continuity of the QoS in such an environment. Indeed, we have noticed that the bases of the knowledge of the users' profiles lack decision-making information relative to a later analysis. Consequently, there is a need to raise the level of abstraction of the available information. Our first contribution is therefore informational. Decisional information are added to the HSS basis to enrich the knowledge base, which is expressed under the form of "profile of QoSd", where the new information inform directly the decisions to be taken according to the user's profile (preferences QoS and pricing, bandwidth, location. . . . ). Thus, this new knowledge basis will allow dynamic adaptations and will, therefore, make the IMS session more effective. We have, therefore, modeled QoS information relative to users' profiles and IMS offered services by using the CIM classes that we call "QoS Pattern of the IMS information". From the architectural point of view, we have simulated new components to intercept the useful lacking information to ensure the management of an IMS session in real time. Our second contribution consists in adding new components of constituent management IQMS: "Interworking QoS Management Subsystem", that collect the extracted information from the protocols at all levels in a mobile IMS session and will be able to manage the users' mobility (QoS handover and QoS interworking). Our third contribution is proposed organizational subsystem for QoS management in the multiple providers context when a user can to subscribe to one or several providers according to QoS criteria "Interworking QoS Management Subsystem multiple providers: IQMSmp"
Styles APA, Harvard, Vancouver, ISO, etc.
17

Houmani, Nesma. « Analyse de la qualité des signatures manuscrites en-ligne par la mesure d'entropie ». Phd thesis, Institut National des Télécommunications, 2011. http://tel.archives-ouvertes.fr/tel-00765378.

Texte intégral
Résumé :
Cette thèse s'inscrit dans le contexte de la vérification d'identité par la signature manuscrite en-ligne. Notre travail concerne plus particulièrement la recherche de nouvelles mesures qui permettent de quantifier la qualité des signatures en-ligne et d'établir des critères automatiques de fiabilité des systèmes de vérification. Nous avons proposé trois mesures de qualité faisant intervenir le concept d'entropie. Nous avons proposé une mesure de qualité au niveau de chaque personne, appelée "Entropie personnelle", calculée sur un ensemble de signatures authentiques d'une personne. L'originalité de l'approche réside dans le fait que l'entropie de la signature est calculée en estimant les densités de probabilité localement, sur des portions, par le biais d'un Modèle de Markov Caché. Nous montrons que notre mesure englobe les critères habituels utilisés dans la littérature pour quantifier la qualité d'une signature, à savoir: la complexité, la variabilité et la lisibilité. Aussi, cette mesure permet de générer, par classification non supervisée, des catégories de personnes, à la fois en termes de variabilité de la signature et de complexité du tracé. En confrontant cette mesure aux performances de systèmes de vérification usuels sur chaque catégorie de personnes, nous avons trouvé que les performances se dégradent de manière significative (d'un facteur 2 au minimum) entre les personnes de la catégorie "haute Entropie" (signatures très variables et peu complexes) et celles de la catégorie "basse Entropie" (signatures les plus stables et les plus complexes). Nous avons ensuite proposé une mesure de qualité basée sur l'entropie relative (distance de Kullback-Leibler), dénommée "Entropie Relative Personnelle" permettant de quantifier la vulnérabilité d'une personne aux attaques (bonnes imitations). Il s'agit là d'un concept original, très peu étudié dans la littérature. La vulnérabilité associée à chaque personne est calculée comme étant la distance de Kullback-Leibler entre les distributions de probabilité locales estimées sur les signatures authentiques de la personne et celles estimées sur les imitations qui lui sont associées. Nous utilisons pour cela deux Modèles de Markov Cachés, l'un est appris sur les signatures authentiques de la personne et l'autre sur les imitations associées à cette personne. Plus la distance de Kullback-Leibler est faible, plus la personne est considérée comme vulnérable aux attaques. Cette mesure est plus appropriée à l'analyse des systèmes biométriques car elle englobe en plus des trois critères habituels de la littérature, la vulnérabilité aux imitations. Enfin, nous avons proposé une mesure de qualité pour les signatures imitées, ce qui est totalement nouveau dans la littérature. Cette mesure de qualité est une extension de l'Entropie Personnelle adaptée au contexte des imitations: nous avons exploité l'information statistique de la personne cible pour mesurer combien la signature imitée réalisée par un imposteur va coller à la fonction de densité de probabilité associée à la personne cible. Nous avons ainsi défini la mesure de qualité des imitations comme étant la dissimilarité existant entre l'entropie associée à la personne à imiter et celle associée à l'imitation. Elle permet lors de l'évaluation des systèmes de vérification de quantifier la qualité des imitations, et ainsi d'apporter une information vis-à-vis de la résistance des systèmes aux attaques. Nous avons aussi montré l'intérêt de notre mesure d'Entropie Personnelle pour améliorer les performances des systèmes de vérification dans des applications réelles. Nous avons montré que la mesure d'Entropie peut être utilisée pour : améliorer la procédure d'enregistrement, quantifier la dégradation de la qualité des signatures due au changement de plateforme, sélectionner les meilleures signatures de référence, identifier les signatures aberrantes, et quantifier la pertinence de certains paramètres pour diminuer la variabilité temporelle.
Styles APA, Harvard, Vancouver, ISO, etc.
18

Pham, Thanh Son. « Autonomous management of quality of service in virtual networks ». Thesis, Compiègne, 2014. http://www.theses.fr/2014COMP2147/document.

Texte intégral
Résumé :
Cette thèse propose un schéma entièrement distribué de routage résilient pour les réseaux de switches. Dans cette approche une panne est traitée localement ; ainsi les autres nœuds du réseau n’ont pas besoin de prendre des mesures spécifiques. Contrairement aux systèmes classiques de routage IP qui se base uniquement sur la destination, le routage est fait en se basant sur l’arc de l’entrée et la destination. La contrainte qui en résulte est que les deux flux à la même destination entrant dans un nœud par un arc commun doivent fusionner après cet arc. Nous montrons que sous des faibles hypothèses (en supposant que le réseau est symétrique et bi-connexes au sens des liens), il existe un schéma de routage résilient pour toutes les situations de pannes simples de liens. Nous modélisons le problème de dimensionnement par un programme linéaire en nombres entiers qui peut être résolu exactement pour des réseaux de taille modeste. Nous proposons également plusieurs heuristiques pour traiter des instances de grande taille. Notre méthode généralise les méthodes de la littérature, en particulier celles de Xi et al. et de Nelakuditi et al. qui ont proposé des approches similaires. Notre approche permet d’obtenir de meilleurs résultats sur de nombreuses instances de test. Nous avons également étudié l’existence d’un schéma de routage résilient pour situation de panne de nœud dans le réseau basée sur les switches. Nous montrons que dans le cas des pannes de plusieurs liens, la condition de connexité n’est pas suffisante
This thesis presents a fully distributed resilient routing scheme for switch-based networks. A failure is treated locally, so other nodes in the network do not need to undertakespecial actions. In contrast to conventional IP routing schemes, each node routesthe traffic on the basis of the entering arc and of the destination. The resulting constraintis that two flows to the same destination entering in a node by a common archave to merge after this arc. We show that this is sufficient for dealing with all singlelink failure situations, assuming that the network is symmetric and two-link connected.We model the dimensioning problem with an Integer Linear Program which can besolved exactly for small networks. We also propose several heuristics for larger networks.Our method generalizes the methods of Xi et Chao and Li and of Nelakuditiet al. who have proposed similar schemes in the context of IP. Our methods are moreefficient than previous ones. We have also studied the existence of a resilient routingscheme for single node failure situation in switch-based network. We study also thecase of multi-link failure situations and show that requiring the network to be connectedafter any failure does not guarantee the existence of a resilent routing schemeas described above
Styles APA, Harvard, Vancouver, ISO, etc.
19

Boudaoud, Nassim. « Conception d'un système de diagnostic adaptatif en ligne pour la surveillance des systèmes évolutifs ». Compiègne, 1997. http://www.theses.fr/1997COMP1060.

Texte intégral
Résumé :
La surveillance des procédés (industriels, environnementaux, etc. ) est devenue un enjeu économique majeur dont le diagnostic est une composante importante. Le diagnostic d'un procédé consiste à déterminer à chaque instant l'état sous lequel il évolue. La conception d'un système de diagnostic suppose une connaissance des modes de fonctionnement du procédé. Cette connaissance est rarement exhaustive. Des procédures d'adaptation permettent d'enrichir cette connaissance au fur et à mesure que de nouveaux modes de fonctionnement apparaissent. L'étude a porté sur la recherche de solutions au problème d'adaptation en ligne d'un système de diagnostic par reconnaissance des formes dans le cadre de systèmes évolutifs. La solution proposée consiste à associer au système de diagnostic une boucle de supervision. Le système de diagnostic ainsi développé est capable de détecter des dérivés à partir d'un mode de fonctionnement connu, de détecter la stabilisation dans un mode connu ou inconnu et d'anticiper l'évolution de l'état de fonctionnement du système. Le diagnostic est généré sous forme symbolique. L'originalité de ce travail réside dans le fait que nous avons fait collaborer une approche par reconnaissance des formes et une approche par modèles pour élaborer un système diagnostic auto-adaptatif en ligne. Les performances de ce système ont été évaluées sur deux applications : - la surveillance du réseau téléphonique francais. - la surveillance de la qualité de l'eau. Les résultats ont montré la capacité du système à détecter des dérivés à partir d'un état de fonctionnement normal et à anticiper le degré de pollution de la rivière.
Styles APA, Harvard, Vancouver, ISO, etc.
20

Meskens, Nadine. « Contribution à la conception d'un système d'analyse de la qualité de programmes informatiques ». Valenciennes, 1991. https://ged.uphf.fr/nuxeo/site/esupversions/6e227419-3072-403c-a486-15046e429a36.

Texte intégral
Résumé :
Dans la plupart des entreprises, les programmes informatiques sont devenus de plus en plus volumineux et complexes. Ces développements posent le problème de la charge de maintenance. Afin de minimiser ce coût, il faut donner aux programmes les qualités garantissant leur bonne évolutivité : portabilité, maintenabilité, fiabilité, efficacité, flexibilité. . . Cette minimisation des couts de maintenance doit être précédée d'un diagnostic permettant de mesurer l'effort à faire pour y parvenir et de connaitre par programme les actions à entreprendre. Afin d'avoir une vue quantitative de la qualité des programmes développés, de nombreux outils ont été et continuent à être mis au point. Notre recherche participe à ces développements. Plus spécifiquement, nous montrons les limites des métriques et proposons une approche système expert qui permet de couvrir à la fois les aspects syntaxiques et sémantiques d'un programme. Outre l'évaluation de la qualité, le système contribue à l'amélioration de celle-ci en mettant en valeur les critères et sous-critères de qualité les plus pénalisants pour le programme considéré. Grace à ces directives, des personnes compétentes pourront entreprendre la rénovation des programmes à l'aide d'outils appropriés. Ceci permettra de rendre ces programmes à nouveau aptes à évoluer et de réduire considérablement leur charge de maintenance ultérieure et donc de libérer les ressources humaines nécessaires au développement de nouvelles applications. Conjointement, un important travail de collecte des métriques ainsi que l'élaboration d'une liste de règles de qualité ont été réalisés
This cost minimization must be preceeded by a diagnostic that allows to measure the effort required by a good quality and recommends actions to undertake. Many tools have been developed to obtain a quantitative view on software quality. However, much work remains to be done. Our research belongs to that stream of research. We show the limits of metrics and propose an expert system approach that allows to cover both syntactic and semantic aspects of software. Besides the software quality evaluation, the system helps to improve this quality by emphasizing the most penalizing quality criteria for the program under review. Given this information, programs could be graded and their maintenance cost reduced so that human ressources could develop new applications. In addition, an important work of collection of metrics and elaboration of quality checklists has been done
Styles APA, Harvard, Vancouver, ISO, etc.
21

Deslandres, Véronique. « Contribution à l'amélioration de la qualité dans les systèmes de production par un système basé sur la connaissance ». Lyon 1, 1993. http://www.theses.fr/1993LYO10177.

Texte intégral
Résumé :
Maitriser la qualite de fabrication industrielle necessite un grand nombre de connaissances differentes qui sont: les connaissances des problemes que l'on peut rencontrer au niveau du processus, et des facons de les resoudre; les connaissances methodologiques de la demarche a suivre pour ameliorer definitivement le processus; la connaissance des differents outils de la qualite disponibles et de leur meilleure exploitation compte tenu de l'environnement de production. Ce travail presente un systeme a base de connaissances pour mieux maitriser les processus de fabrication, a partir des methodes de la qualite telles que les diagrammes causes-effet et la maitrise statistique des processus (msp). L'aide consiste en l'analyse methodologique du processus permettant d'evaluer les actions qualite a mettre en uvre pour stabiliser la production au niveau de qualite recherchee. Plus specifiquement, nous montrons comment correctement utiliser les outils de la qualite a disposition et tirer profit de leur meilleure application. L'approche systeme expert permet de couvrir les problemes d'identification de l'origine reelle de la non-qualite, et de choisir les outils de la qualite les plus adaptes aux problemes et a l'environnement de production. Les deux premieres parties du memoire sont consacrees aux concepts et outils de mise en uvre de la qualite dans l'entreprise, ainsi qu'a l'etat de l'art de l'utilisation de l'intelligence artificielle dans ce domaine; les besoins de la production qui ne sont pas couverts par les travaux actuels sont ainsi mis en evidence. Dans la troisieme partie, nous presentons les principes d'une approche a base de connaissances pour repondre a ces besoins. Enfin, la quatrieme partie decrit l'implementation informatique de nos reflexions, plus particulierement centree sur le systeme sysmiq realise pour l'entreprise renault
Styles APA, Harvard, Vancouver, ISO, etc.
22

Kondratyeva, Olga. « Timed FSM strategy for optimizing web service compositions w.r.t. the quality and safety issues ». Thesis, Université Paris-Saclay (ComUE), 2015. http://www.theses.fr/2015SACLL004/document.

Texte intégral
Résumé :
Les concepts d’architecture orientée service (SOA) ainsi que tout une panoplie de technologies «en tant que service» (XaaS) sont utilisés quasiment partout de nos jours, et l’organisation optimisée d’activités synchronisées devient un défi important. Dans le but de proposer à l’utilisateur final un service sécuritaire et fiable sans compromettre la qualité, les questions concernant la vérification et la validation des compositions des services deviennent d’un grand intérêt tant théorique que pratique. Dans les autres travaux traitant du sujet, de nombreux modèles et techniques sont proposés, mais la plupart mettent l’accent sur les aspects fonctionnels ou non-fonctionnels pris séparément, alors que l’intégration de ces paramètres en un modèle formel unifié reste un problème qui doit être résolu – ce qui est devenu par conséquent un des objectifs fondamentaux de cette thèse. Dans notre travail, nous réfléchissons aux problèmes de la vérification et de l’optimisation des compositions des services web. Tout ceci est étudié dans l’optique de la fonctionnalité des systèmes, de leur qualité et de la sécurité des compositions. Il a été prouvé que les modèles à états finis sont utiles à des fins de tests et de vérification, de même que pour le contrôle qualité à chaque étape du développement du service. C’est pour cette raison que nous proposons d’utiliser le modèle de machine temporisée à états finis (TFSM) pour intégrer une description fonctionnelle du service avec les paramètres de sécurité et de qualité liées au temps. L’extension du modèle permettra alors d’interpréter adéquatement le non-déterminisme significatif causé par un manque d’observabilité ou/et de contrôle sur les services tiers. Dans le but d’optimiser les compositions des systèmes, nous proposons une méthode pour dériver la solution la plus globale contenant tous les composants autorisés pour la mise en œuvre du service, basée sur la résolution de l’équation parallèle du TFSM. Ensuite, les techniques pour extraire des solutions restreintes avec les propriétés requises (paramètres de temps minimisé/maximisé, interblocages actifs ou passifs de sécurité, similarité avec le composant d’origine donné, etc.) ont été proposées. Dans le cas où les spécifications d’un service composite consistent en un ensemble d’exigences fonctionnelles, éventuellement renforcées par des exigences de qualité, nous proposons une technique de minimisation de l’ensemble, dans le respect du composant à optimiser. L’application des résultats obtenus à la découverte et à la mise en place de composants plus efficaces, ainsi que l’extension du modèle à des modes de communication plus complexes font partie des sujets possibles pour des études futures
Service-oriented architecture (SOA) together with a family of Everything-as-a-Service (XaaS) concepts nowadays are used almost everywhere, and the proper organization of collaborative activities becomes an important challenge. With the goal of bringing to the end-user safe and reliable service with the guaranteed level of quality, issues of service compositions verification and validation become of high practical and theoretical interest. In the related works, numerous models and techniques are proposed, but mostly focused on functional and non-functional issues in isolation, while integration of these parameters within unified formal framework still remains a problem to be solved – and therefore became one of the core objectives of this thesis. In our work, we address the problems of web service composition verification and optimization with respect to functional, quality and safety properties of the composition. Finite state models are proven to be useful for testing and verification purposes as well as for service quality evaluation at each step of service development. Therefore, we propose to use the model of Finite State Machine with Timeouts (TFSM) for integrating functional service description with time-related quality and safety parameters, and derive the extension of the model in order to adequately inherit significant nondeterminism due to the lack of observability and control over third-party component services. For the purpose of component optimization in the composition, we propose a method for deriving the largest solution containing all allowed component service implementations, based on solving TFSM parallel equation. Further, techniques for extracting restricted solutions with required properties (minimized/maximized time parameters, deadlock- and livelock-safety, similarity to the initially given component, etc.) have been proposed. In cases when the specification of a composite service is provided as a set of functional requirements, possibly, augmented with quality requirements, we propose a technique to minimize this set with respect to the component under optimization. Application of the obtained results for more efficient candidate component services discovery and binding, alongside with extending the framework for more complex distributed modes of communications, are among the topics for the future work
Styles APA, Harvard, Vancouver, ISO, etc.
23

Grim-Yefsah, Malika. « Gestion des connaissances et externalisation informatique. Apports managériaux et techniques pour l'amélioration du processus de transition : Cas de l’externalisation informatique dans un EPST ». Thesis, Paris 9, 2012. http://www.theses.fr/2012PA090047/document.

Texte intégral
Résumé :
Le travail de recherche de cette thèse traite de la problématique de transfert de connaissances lors du processus de transition d’un projet informatique externalisé dans un EPST. En particulier, Comment transférer les connaissances, constituées des expériences-succès ou échecs passés, routines, assimilées et cumulées pendant la durée d’un projet externalisé par les membres d’une équipe sortante vers une nouvelle équipe entrante d’une manière efficiente ? Nous nous focalisons sur ce processus de transition en raison de son importance pour le succès de l’externalisation informatique, de sa complexité, de sa richesse théorique et le manque d’études dans ce domaine. Nous avons choisi d’approcher cette problématique par le biais de la gestion des connaissances. Dans un premier volet de cette thèse, nous nous sommes appuyées sur le paradigme Goal-Question-Metric proposant une démarche de définition de la qualité pour progresser de notre besoin opérationnel jusqu’à la définition des métriques d’évaluation de la robustesse utilisant des informations issues de l’analyse de réseaux informels sous-jacents aux activités effectuées dans le processus métier. Ces métriques permettent d’évaluer une partie de la qualité d’un processus métier en tenant compte de la connaissance tacite des acteurs du processus de transition. Dans un second volet de cette recherche, nous avons développés une méthode, en nous appuyant sur l’approche de capitalisation sur les connaissances et des mécanismes théoriques de transfert de connaissances, et un outil informatique pour mettre en œuvre ce processus de transfert de connaissances
The research of this thesis deals with the issue of knowledge transfer during the transition process of an IT project outsourced in EPST. In particular, How to transfer knowledge, experience and routines related to outsourced activities from outgoing team to a new incoming team? We focus on the transition due to its significance for outsourcing success, its complexity and theoretical richness, and its limited current understanding. We chose to approach this problem through knowledge management. In the first part of this thesis, based on the Goal-Question-Metric paradigm, we propose an approach for the definition of quality metrics covering the given operational requirements. The metrics we define take tacit knowledge into account, using information from the structural analysis of an informal network. In a second phase of this research, we developed a method, relying on capitalization on knowledge and theoretical mechanisms of knowledge transfer, and a tool to implement this process of knowledge transfer
Styles APA, Harvard, Vancouver, ISO, etc.
24

Gemayel, Charbel El. « Approche comportementale pour la validation et le test système des systèmes embarqués : Application aux dispositifs médicaux embarqués ». Thesis, Lyon, INSA, 2014. http://www.theses.fr/2014ISAL0135/document.

Texte intégral
Résumé :
Les progrès des technologies de l'information et de la communication, des MEMS, des capteurs, actionneurs, etc. ont permis l’émergence de différents dispositifs biomédicaux. Ces nouveaux dispositifs, souvent embarqués, contribuent considérablement à l'amélioration du diagnostic et du traitement de certaines maladies, comme le diabète par exemple. Des dispositifs embarqués encore plus complexes sont en cours d’élaboration, leur mise en œuvre nécessite des années de recherche et beaucoup d’expérimentation. Le cœur artificiel, encore en phase de réalisation, est un exemple concret de ces systèmes complexes. La question de la fiabilité, du test de fonctionnement et de sureté de ces dispositifs reste problématique et difficile à résoudre. Plusieurs paramètres (patient, évolution de la maladie, alimentation, activité, traitement, etc.) sont en effet à prendre en compte et la conséquence d’une erreur de fonctionnement peut être catastrophique pour le patient. L'objectif de cette thèse est de développer des outils et des approches méthodologiques permettant la validation et le test au niveau système de ce type de dispositifs. Il s’agit précisément d’étudier la possibilité de modéliser et simuler d’une manière conjointe un dispositif médical ainsi que son interaction avec le corps humain, du moins la partie du corps humain concernée par le dispositif médical, afin de mesurer les performances et la qualité de services (QoS) du dispositif considéré. Pour atteindre cet objectif notre étude a porté sur plusieurs points. Nous avons d’abord mis en évidence une architecture simplifiée d’un modèle de corps humain permettant de représenter et de mieux comprendre les différents mécanismes du corps humain. Nous avons ensuite exploré un ensemble de métriques et une approche méthodologique générique permettant de qualifier la qualité de service d’un dispositif médical donné en interaction avec le corps humain. Afin de valider notre approche, nous l’avons appliquée à un dispositif destiné à la régulation du taux de sucre pour des patients atteints du diabète. La partie du corps humain concernée par cette pathologie à savoir le pancréas a été simulé par un modèle simplifié que nous avons implémenté sur un microcontrôleur. Le dispositif de régulation de l’insuline quant à lui a été simulé par un modèle informatique écrit en C. Afin de rendre les mesures de performances observées indépendantes d’un patient donné, nous avons étudiés différentes stratégies de tests sur différentes catégories de patients. Nous avons pour cette partie mis en œuvre un générateur de modèles capable de reproduire différents états physiologiques de patients diabétiques. L’analyse et l’exploitation des résultats observés peut aider les médecins à considérablement limités les essais cliniques sur des vrai patients et les focaliser uniquement sur les cas les plus pertinent
A Biomedical research seeks good reasoning for solving medical problems, based on intensive work and great debate. It often deals with beliefs or theories that can be proven, disproven or often refined after observations or experiments. The problem is how to make tests without risks for patients, including variability and uncertainty on a number of parameters (patients, evolution of disease, treatments …). Nowadays, medical treatment uses more and more embedded devices such as sensors, actuators, and controllers. Treatment depends on the availability and well-functioning of complex electronic systems, comprising thousands of lines of codes. A mathematical representation of patient or device is presented by a number of variables which are defined to represent the inputs, the outputs and a set of equations describing the interaction of these variables. The objective of this research is to develop tools and methodologies for the development of embedded systems for medical fields. The goal is to be able to model and jointly simulate the medical device as well the human body, at least the part of the body involved in the medical device, to analyze the performance and quality of service (QoS) of the interaction of the device with the human body. To achieve this goal our study focused on several points described below. After starting by defining a prototype of a new global and flexible architecture of mathematical model of human body, which is able to contain required data, we begin by proposing a new global methodology for modeling and simulation human body and medical systems, in order to better understand the best way to model and simulate these systems and for detecting performance and the quality of services of all system components. We use two techniques that help to evaluate the calculated QoS value. The first one calculates an index of severity which indicates the severity of the case studied. The second one using a normalization function that represents the simulation as a point in order to construct a new error grid and use it to evaluate the accuracy of value measured by patients. Using Keil development tools designed for ARM processors, we have declared a new framework in the objective to create a new tester model for the glucose-insulin system, and to define the basic rules for the tester which has the ability to satisfy well-established medical decision criteria. The framework begins by simulating a mathematical model of the human body, and this model was developed to operate in the closed loop of the glucose insulin. Then, the model of artificial pancreas has been implemented to control the mathematical model of human body. Finally a new tester model was created in order to analyze the performance of all the components of the glucose-insulin system.. We have used the suitability of partially observable Markov decision processes to formalize the planning of clinical management
Styles APA, Harvard, Vancouver, ISO, etc.
25

Abdallah, Maïssa. « Ordonnancement temps réel pour l'optimisation de la qualité de service dans les systèmes autonomes en énergie ». Nantes, 2014. http://archive.bu.univ-nantes.fr/pollux/show.action?id=cf544609-5d3c-45cb-9a2e-5ef19186f58d.

Texte intégral
Résumé :
Dans le cadre de cette thèse, nous nous intéressons aux applications temps réel qualifiées de fermes car acceptant de ne pas satisfaire la totalité des contraintes temporelles. Celles-ci s’expriment par des échéances c’est à dire des dates avant lesquelles les jobs de l’application se doivent de terminer leur exécution. Les applications temps réel concernées sont très diverses : on peut citer les applications multimédia mais aussi les réseaux de capteurs où l’on tolère occasionnellement la perte de données capteurs. Notre objectif est de proposer et valider par le biais de la simulation, de nouvelles stratégies d’ordonnancement en vue d’optimiser la Qualité de Service(le ratio de contraintes satisfaites). Ce travail constitue une extension de travaux précédents entrepris dans le laboratoire qui ont porté sur les systèmes autonomes en énergie non surchargés temporellement et énergétiquement. Notre contribution concerne les systèmes entièrement autonomes car alimentés par l’énergie ambiante qui sont soumis à la fois à des contraintes temporelles et énergétiques. Nous considérons un système monoprocesseur monofréquence, alimenté par un réservoir d’énergie approvisionné par une source environnementale. Dans un premier temps, nous considérons qu’il exécute uniquement des tâches périodiques et nous proposons une solution à la gestion de surcharge de traitement d’une part et aux pénuries temporaires d’énergie d’autre part, en se basant sur le modèle dit Skip-Over. Dans un deuxième temps, nous étendons notre modèle au cas de tâches apériodiques non critiques. Nous apportons une solution au problème lié à la minimisation du temps de réponse de ces dernières
In this thesis, we focus on firm real-time applications allowing some timing constraints not to be meet (the ratio of satisfied constraints represents the level of Quality of Service provided by the system). These are expressed by deadlines i. E. The dates by which the jobs of the application must have completed their execution. Targeted real-time applications are very diverse such as multimedia ones or sensor networks which can occasionally tolerate some data loss. The aim of this thesis is to propose and validate through simulation, new scheduling strategies to optimize the Quality of Service. This work is based on previous works undertaken in the laboratory that focused on both real-time systems without energy consideration but subject to processing overload and autonomous energy systems without overload situations. Our contribution concerns fully autonomous systems powered by ambient energy and subject to both timing and energy constraints. Firstly, we consider a single-frequency uniprocessor system that only schedules periodic tasks (e. G. Monitoring / control), powered by an energy reservoir which is charged through an ambient energy source. The proposed Skip-Over model-based methods provide a solution to the management of both processing overload situations and energy starvation cases. Secondly, we extend our model to handle aperiodic non-critical tasks in our system. We provide a solution to the problem of minimizing the response time
Styles APA, Harvard, Vancouver, ISO, etc.
26

Mehmood, Kashif. « Conception des Systèmes d'Information : une approche centrée sur les Patrons de Gestion de la Qualité ». Electronic Thesis or Diss., Paris, CNAM, 2010. http://www.theses.fr/2010CNAM0721.

Texte intégral
Résumé :
Les modèles conceptuels (MC) jouent un rôle crucial qui est celui de servir de base à l’ensemble du processus de développement d’un système d’information (SI) mais aussi de moyen de communication à la fois au sein de l’équipe de développement et avec les utilisateurs durant les premières étapes de validation. Leur qualité joue par conséquent un rôle déterminant dans le succès du système final. Des études ont montré que la majeure partie des changements que subit un SI concerne des manques ou des défaillances liés aux fonctionnalités attendues. Sachant que la définition de ses fonctionnalités incombe à la phase de l’analyse et conception dont les MC constituent les livrables, il apparaît indispensable pour une méthode de conception de veiller à la qualité des MC qu’elle produit. Notre approche vise les problèmes liés à la qualité de la modélisation conceptuelle en proposant une solution intégrée au processus de développement qui à l’avantage d’être complète puisqu’elle adresse à la fois la mesure de la qualité ainsi que son amélioration. La proposition couvre les aspects suivants: i. Formulation de critères de qualité en fédérant dans un premier temps les travaux existant sur la qualité des MC. En effet, un des manques constaté dans le domaine de la qualité des MC est l’absence de consensus sur les concepts et leurs définitions. Ce travail a été validé par une étude empirique. Ce travail a également permis d’identifier les parties non couverte par la littérature et de les compléter en proposant de nouveaux concepts ou en précisant ceux dont la définition n’était complète. ii. Définition d’un concept (pattern de qualité) permettant de capitaliser les bonnes pratiques dans le domaine de la mesure et de l’amélioration de la qualité des MC. Un pattern de qualité sert à aider un concepteur de SI dans l’identification des critères de qualité applicables à sa spécification, puis de le guider progressivement dans la mesure de la qualité ainsi que dans son amélioration. Sachant que la plupart des approches existantes s’intéresse à la mesure de la qualité et néglige les moyens de la corriger. La définition de ce concept est motivée par la difficulté et le degré d’expertise important qu’exige la gestion de la qualité surtout au niveau conceptuel où le logiciel fini n’est pas encore disponible et face à la diversité des concepts de qualité (critères et métriques) pouvant s’appliquer. iii. Formulation d’une méthode orientée qualité incluant à la fois des concepts, des guides et des techniques permettant de définir les concepts de qualité souhaités, leur mesure et l’amélioration de la qualité des MC. Cette méthode propose comme point d’entrée le besoin de qualité que doit formuler le concepteur. Il est ensuite guidée de manière flexible dans le choix des critères de qualité adaptés jusqu’à la mesure et la proposition de recommandations aidant à l’amélioration de la qualité du MC initial conformément au besoin formulé. iv. Développement d'un prototype "CM-Quality". Notre prototype met en œuvre la méthode proposée et offre ainsi une aide outillé à son application. Nous avons enfin mené deux expérimentations ; la première avait comme objectif de valider les concepts de qualité utilisés et de les retenir. La deuxième visait à valider la méthode de conception guidée par la qualité proposée
Conceptual models (CM) serve as the blueprints of information systems and their quality plays decisive role in the success of the end system. It has been witnessed that majority of the IS change-requests result due to deficient functionalities in the information systems. Therefore, a good analysis and design method should ensure that CM are correct and complete, as they are the communicating mediator between the users and the development team. Our approach targets the problems related to conceptual modeling quality by proposing a comprehensive solution. We designed multiple artifacts for different aspects of CM quality. These artifacts include the following: i. Formulation of comprehensive quality criteria (quality attributes, metrics, etc.) by federating the existing quality frameworks and identifying the quality criteria for gray areas. Most of the existing literature on CM quality evaluation represents disparate and autonomous quality frameworks proposing non-converging solutions. Thus, we synthesized (existing concepts proposed by researchers) and added the new concepts to formulate a comprehensive quality approach for conceptual models that also resulted in federating the existing quality frameworks. ii. Formulation of quality patterns to encapsulate past-experiences and good practices as the selection of relevant quality criteria (including quality attributes and metrics) with respect to a particular requirement (or goal) remains trickier for a non-expert user. These quality patterns encapsulate valuable knowledge in the form of established and better solutions to resolve quality problems in CM. iii. Designing of the guided quality driven process encompassing methods and techniques to evaluate and improve the conceptual models with respect to a specific user requirement or goal. Our process guides the user in formulating the desired quality goal, helps him/her in identifying the relevant quality patterns or quality attributes with respect to the quality goal and finally the process helps in evaluating the quality of the model and propose relevant recommendations for improvement. iv. Development of a software prototype “CM-Quality”. Our prototype implements all the above mentioned artifacts and proposes a workflow enabling its users to evaluate and improve CMs efficiently and effectively. We conducted a survey to validate the selection of the quality attributes through the above mentioned federating activity and also conducted three step detailed experiment to evaluate the efficacy and efficiency of our overall approach and proposed artifacts
Styles APA, Harvard, Vancouver, ISO, etc.
27

Djedaini, Mahfoud. « Automatic assessment of OLAP exploration quality ». Thesis, Tours, 2017. http://www.theses.fr/2017TOUR4038/document.

Texte intégral
Résumé :
Avant l’arrivée du Big Data, la quantité de données contenues dans les bases de données était relativement faible et donc plutôt simple à analyser. Dans ce contexte, le principal défi dans ce domaine était d’optimiser le stockage des données, mais aussi et surtout le temps de réponse des Systèmes de Gestion de Bases de Données (SGBD). De nombreux benchmarks, notamment ceux du consortium TPC, ont été mis en place pour permettre l’évaluation des différents systèmes existants dans des conditions similaires. Cependant, l’arrivée de Big Data a complètement changé la situation, avec de plus en plus de données générées de jour en jour. Parallèlement à l’augmentation de la mémoire disponible, nous avons assisté à l’émergence de nouvelles méthodes de stockage basées sur des systèmes distribués tels que le système de fichiers HDFS utilisé notamment dans Hadoop pour couvrir les besoins de stockage technique et le traitement Big Data. L’augmentation du volume de données rend donc leur analyse beaucoup plus difficile. Dans ce contexte, il ne s’agit pas tant de mesurer la vitesse de récupération des données, mais plutôt de produire des séquences de requêtes cohérentes pour identifier rapidement les zones d’intérêt dans les données, ce qui permet d’analyser ces zones plus en profondeur, et d’extraire des informations permettant une prise de décision éclairée
In a Big Data context, traditional data analysis is becoming more and more tedious. Many approaches have been designed and developed to support analysts in their exploration tasks. However, there is no automatic, unified method for evaluating the quality of support for these different approaches. Current benchmarks focus mainly on the evaluation of systems in terms of temporal, energy or financial performance. In this thesis, we propose a model, based on supervised automatic leaming methods, to evaluate the quality of an OLAP exploration. We use this model to build an evaluation benchmark of exploration support sys.terns, the general principle of which is to allow these systems to generate explorations and then to evaluate them through the explorations they produce
Styles APA, Harvard, Vancouver, ISO, etc.
28

Mehmood, Kashif. « Conception des Systèmes d'Information : une approche centrée sur les Patrons de Gestion de la Qualité ». Phd thesis, Conservatoire national des arts et metiers - CNAM, 2010. http://tel.archives-ouvertes.fr/tel-00922995.

Texte intégral
Résumé :
Les modèles conceptuels (MC) jouent un rôle crucial qui est celui de servir de base à l'ensemble du processus de développement d'un système d'information (SI) mais aussi de moyen de communication à la fois au sein de l'équipe de développement et avec les utilisateurs durant les premières étapes de validation. Leur qualité joue par conséquent un rôle déterminant dans le succès du système final. Des études ont montré que la majeure partie des changements que subit un SI concerne des manques ou des défaillances liés aux fonctionnalités attendues. Sachant que la définition de ses fonctionnalités incombe à la phase de l'analyse et conception dont les MC constituent les livrables, il apparaît indispensable pour une méthode de conception de veiller à la qualité des MC qu'elle produit. Notre approche vise les problèmes liés à la qualité de la modélisation conceptuelle en proposant une solution intégrée au processus de développement qui à l'avantage d'être complète puisqu'elle adresse à la fois la mesure de la qualité ainsi que son amélioration. La proposition couvre les aspects suivants: i. Formulation de critères de qualité en fédérant dans un premier temps les travaux existant sur la qualité des MC. En effet, un des manques constaté dans le domaine de la qualité des MC est l'absence de consensus sur les concepts et leurs définitions. Ce travail a été validé par une étude empirique. Ce travail a également permis d'identifier les parties non couverte par la littérature et de les compléter en proposant de nouveaux concepts ou en précisant ceux dont la définition n'était complète. ii. Définition d'un concept (pattern de qualité) permettant de capitaliser les bonnes pratiques dans le domaine de la mesure et de l'amélioration de la qualité des MC. Un pattern de qualité sert à aider un concepteur de SI dans l'identification des critères de qualité applicables à sa spécification, puis de le guider progressivement dans la mesure de la qualité ainsi que dans son amélioration. Sachant que la plupart des approches existantes s'intéresse à la mesure de la qualité et néglige les moyens de la corriger. La définition de ce concept est motivée par la difficulté et le degré d'expertise important qu'exige la gestion de la qualité surtout au niveau conceptuel où le logiciel fini n'est pas encore disponible et face à la diversité des concepts de qualité (critères et métriques) pouvant s'appliquer. iii. Formulation d'une méthode orientée qualité incluant à la fois des concepts, des guides et des techniques permettant de définir les concepts de qualité souhaités, leur mesure et l'amélioration de la qualité des MC. Cette méthode propose comme point d'entrée le besoin de qualité que doit formuler le concepteur. Il est ensuite guidée de manière flexible dans le choix des critères de qualité adaptés jusqu'à la mesure et la proposition de recommandations aidant à l'amélioration de la qualité du MC initial conformément au besoin formulé. iv. Développement d'un prototype "CM-Quality". Notre prototype met en œuvre la méthode proposée et offre ainsi une aide outillé à son application. Nous avons enfin mené deux expérimentations ; la première avait comme objectif de valider les concepts de qualité utilisés et de les retenir. La deuxième visait à valider la méthode de conception guidée par la qualité proposée
Styles APA, Harvard, Vancouver, ISO, etc.
29

Léon, Chávez Miguel Angel. « Qualité de service et ordonnancement dans les systèmes de communication temps réel ». Vandoeuvre-les-Nancy, INPL, 2000. http://docnum.univ-lorraine.fr/public/INPL_T_2000_LEON_CHAVEZ_M.pdf.

Texte intégral
Résumé :
Nous nous intéressons ici aux systèmes de communication temps réel à architectures réduites, c'est-à-dire sans couches réseau et transport. La plupart de ces systèmes sont conçus pour satisfaire certains besoins temporels des utilisateurs, essentiellement sur les échanges périodiques et parfois pour les échanges sporadiques. La satisfaction des besoins est en général assurée par une configuration statique ou hors ligne de l'ordonnancement des messages. Notre thèse propose une solution dynamique à la place des solutions statiques. Cette solution s'inspire de l’architecture de Qualité de Service définie dans les grands réseaux et des techniques de services Intégrés de l'Internet qui sont généralement utilisés au niveau de la couche réseau. Nous proposons donc un protocole de réservation dynamique de ressources qui peut être implanté sur n'importe quel protocole MAC de type centralisé pour n'importe quelle topologie. Ce protocole peut accepter par ailleurs différents algorithmes d'ordonnancement. Il a été spécifié en termes de systèmes états-transitions et a été validé en utilisant l'outil ObjectGEODE
In this thesis, we are interested in special real time communication systems called Fieldbus networks, i. E. Without network nor transport layers. Most of these systems are designed to satisfy certain user time-related requirements, basically the periodic exchanges and sometimes the sporadic exchanges. Generally, the requirements are met and guaranteed by a static or off-line configuration of the message scheduling. We propose a dynamic solution in place of the static solutions. This solution takes as starting points the Quality of Service architecture defined in the wide-area networks and the Integrated service model of the Internet community which are generally used at the network layer. We propose then a dynamic resource reservation protocol which can be used by any MAC protocol of type centralized and for any topology. In addition, this protocol can accept various scheduling algorithms. It was specified in terms of state-transition systems and was validated using the ObjectGEODE tool
Styles APA, Harvard, Vancouver, ISO, etc.
30

Ould, Sass Mohamed. « Le modèle BGW pour les systèmes temps réel surchargés : Ordonnancement monoprocesseur ». Nantes, 2015. https://archive.bu.univ-nantes.fr/pollux/show/show?id=f97b4a19-e66c-4a8b-a74f-b09cf86d6e8c.

Texte intégral
Résumé :
Les systèmes temps-réel embarqués se retrouvent dans des domaines d’application très variés : avionique, automobile, environnement, santé, etc. Ils doivent offrir un nombre croissant de fonctionnalités et fournir un niveau maximal de Qualité de Service (QdS) et ce, malgré des défaillances liées à l’occurrence de fautes ou de surcharges de traitement. Pour ce type de système informatique, la QdS se mesure principalement en termes d’échéances respectées car les programmes sont caractérisés par des dates de fin d’exécution au plus tard. Dans cette thèse, nous considérons une architecture monoprocesseur pour une application temps réel dite ferme. La première contribution tient dans la proposition d’un nouveau modèle de tâche appelé BGW qui permet de spécifier la nature de ses contraintes temporelles. Ce modèle est tiré des deux approches Skip-Over et Deadline Mechanism. La première est dédiée à la gestion des surcharges de traitement par la perte contrôlée de certaines instances de tâches. La seconde est une technique de tolérance aux fautes temporelles basée sur de la redondance logicielle dynamique passive avec deux versions. Dans une seconde partie, nous proposons de nouveaux ordonnanceurs temps réel basés sur EDF (Earliest Deadline First) pour des tâches BGW. Nous montrons comment maximiser la QdS tout en tenant compte des critères d’équité de service. Une étude de performance en termes de QdS et d’overheads conforte nos propositions
Real-time embedded systems are found in various application domains. They have to offer an increasing number of functionalities and to provide the highest Quality of Service despite possible failures due to faults or processing overloads. In such systems, programs are characterized by upper bounds on finishing times and the QoS is assessed by the ratio of successful deadlines. In this thesis, we deal with this issue. We focus on a uniprocessor architecture in the framework of a firm real-time application that accepts deadline missing under some specified limits. Tasks are assumed to be periodic. Our first contribution lies in the proposition of a novel model for tasks which is called BGW model. It is drawn from two approaches respectively known as the skip-over model and the Deadline Mechanism. The first one provides timing fault-tolerance through passive dynamic software redundancy with two versions. The second one copes with transient processing overloads by discarding instances of the periodic tasks in a controlled and pre-specified way. We give a feasibility test for this model. In a second part, we describe the behavior of dynamic priority schedulers based on EDF (Earliest Deadline First) for BGW task sets. A performance analysis is reported which is mainly related to QoS evaluation and measurement of overheads (complexity of the scheduler). The following contribution concerns more sophisticated schedulers that permit to enhance the QoS as to improve service balancing
Styles APA, Harvard, Vancouver, ISO, etc.
31

Hachem, Nabil. « MPLS-based mitigation technique to handle cyber attacks ». Electronic Thesis or Diss., Evry, Institut national des télécommunications, 2014. http://www.theses.fr/2014TELE0013.

Texte intégral
Résumé :
Les cyber-attaques pourraient engendrer des pertes qui sont de plus en plus importantes pour les utilisateurs finaux et les fournisseurs de service. Ces attaques sont, en outre, élevées par une myriade des ressources infectées et comptent surtout sur les réseaux pour être contrôlées, se propager ou endommager. Face à ces risques, il y a un besoin essentiel qui se manifeste dans la réponse à ces nombreuses attaques par des stratégies de défense efficaces. Malgré les multitudes efforts dévouées pour mettre en œuvre des techniques de défense complètes afin de se protéger contre les attaques réseaux; les approches proposées n’ont pas parvenus à satisfaire toutes les exigences. Les stratégies de défense impliquent un processus de détection complété par des actions de mitigation. Parallèlement à l’importance accordée à la conception des stratégies de détection, il est essentiel de fermer la boucle de sécurité avec des techniques efficaces permettant d’atténuer les impacts des différentes attaques. Dans cette thèse, nous proposons une technique pour réagir aux attaques qui abusent les ressources du réseau, par exemple, DDoS, botnet, distribution des vers, etc. La technique proposée s’appuie sur des approches de gestion du trafic et utilise le standard Multiprotocol Label Switching (MPLS) pour gérer le trafic diagnostiqué comme abusant du réseau, tout en invoquant les processus de détection. Les objectifs de notre technique peuvent être résumés comme suit: d’une part, fournir les moyens — par la qualité de service et schémas de routage — à séparer les flux suspects des légitimes, et d’autre part de prendre le contrôle des flux suspects. Nous bénéficions de l’extension du MPLS au niveau d’inter-domaine pour permettre une coopération entre les fournisseurs, permettant par suite la construction d’un mécanisme de défense à grande échelle. Nous développons un système afin de compléter les aspects de gestion de la technique proposée. Ce système effectue plusieurs tâches telles que l’extraction de données d’alerte, l’adaptation de la stratégie et la configuration des équipements. Nous modélisons le système en utilisant une approche de regroupement et un langage de politiques de sécurité afin de gérer de manière cohérente et automatique le contexte et l’environnement dans lequel la technique de mitigation est exécutée. Enfin, nous montrons l’applicabilité de la technique et du système à travers des différentes simulations tout en évaluant la qualité de service dans des réseaux MPLS. L’application de la technique a démontré son efficacité dans non seulement la mitigation des impacts des attaques mais aussi dans l’offre des avantages financiers aux acteurs de la chaîne de sécurité, à savoir les fournisseurs de service
Cyber attacks cause considerable losses not only for end-users but also service providers. They are fostered by myriad of infected resources and mostly rely on network resources for whether propagating, controlling or damaging. There is an essential need to address these numerous attacks by efficient defence strategies. Researchers have dedicated large resources without reaching a comprehensive method to protect from network attacks. Defence strategies involve first a detection process, completed by mitigation actions. Research on detection is more active than on mitigation. Yet, it is crucial to close the security loop with efficient technique to mitigate counter attacks and their effects. In this thesis, we propose a novel technique to react to attacks that misuse network resources, e.g., DDoS, Botnet, worm spreading, etc. Our technique is built upon network traffic management techniques. We use the Multiprotocol Label Switching (MPLS) technology to manage the traffic diagnosed to be part of a network misuse by detection processes. The goals of our technique can be summarized as follows: first to provide the means — via QoS and routing schemes — to segregate the suspicious flows from the legitimate traffic; and second, to take control over suspicious flows. We profit from the enhancement on the inter-domain MPLS to permit a cooperation among providers building a large-scale defence mechanism. We develop a system to complete the management aspects of the proposed technique. This system performs tasks such as alert data extraction, strategy adaptation and equipments configurations. We model the system using a clustering method and a policy language in order to consistently and automatically manage the mitigation context and environment in which the proposed technique is running. Finally, we show the applicability of the technique and the system through simulation. We evaluate and analyse the QoS and financial impacts inside MPLS networks. The application of the technique demonstrates its effectiveness and reliability in not only alleviating attacks but also providing financial benefits for the different players in the mitigation chain, i.e., service providers
Styles APA, Harvard, Vancouver, ISO, etc.
32

Costa, João Lino. « Méthodologie pour une amélioration de la qualité de production au Portugal ». Chambéry, 2000. http://www.theses.fr/2000CHAMS004.

Texte intégral
Résumé :
La maitrise du processus de réalisation d'un bâtiment constitue un enjeu majeur pour assurer des gains de qualité, de productivité, et de profit. Nous proposons de mettre en place une méthodologie pour améliorer la qualité et pour éliminer ou réduirai certaines défaillances les plus fréquentes ou avec couts de réparation les plus élevés. Cette méthodologie s'appuie sur l'identification de ces défaillances au cours de chantiers pilotes et sur l'élaboration de procédures adéquates pour chaque type de défaillance. Tous ces résultats ont été organisés en un outil de gestion supporté par Microsoft Access. Ces moyens informatiques constituent un outil nouveau qui, lorsqu'il est utilisé de manière intégrée et interactive dans l'opération (entreprise-préparation / chantier) apporte des profits considérables. L'analyse du suivi de chantier permet de mettre immédiatement en évidence les tâches les plus sensibles à traiter et fournit des indications précises de la voie d'amélioration à partir de l'identification des causes des défaillances. Elle fournit en définitive le nombre des défaillances et les couts de réparation pendant la réalisation et pendant la période de garantie (5 années). Ces informations sont classées selon la phase du processus (programme, projet, préparation, exécution), la phase d'ouvrage (exécution, pré-réception et garantie) et les parties d'ouvrage (fondations, structure et maçonnerie, réseaux, finition/maçonnerie, finition/charpente, enveloppe et divers) ou les défaillances surviennent
Styles APA, Harvard, Vancouver, ISO, etc.
33

Ben, Hedia Belgacem. « Analyse temporelle des systèmes d'acquisition de données : une approche à base d'automates temporisés communicants et d'observateurs ». Lyon, INSA, 2008. http://theses.insa-lyon.fr/publication/2008ISAL0111/these.pdf.

Texte intégral
Résumé :
Dans le cadre des applications temps réel de contrôle de procédé, la thèse propose une théorie et de soutils formels pour caractériser temporellement le retard des données acquises sur l'état du procédé, acquisition réalisée via un logiciel dédié appelé pilote. Le contexte et le domaine d'étude de la thèse se base sur les éléments constituant une chaîne d'acquisition de données dans un contexte de contrôle de procédé, les différentes caractéristiques temporelles et les approches pour les évaluer vis-à-vis des flots de données acheminés dans la chaîne d'acquisition. Ce travail s'appuie sur un ensemble des bases théoriques requises pour cette caractérisation, particulièrement les automates temporisés communicants, les systèmes de transitions étiqutées et la vérification formelle de propriétés sur ces automates, et en particulier les observateurs. Nous proposons d'abord de formaliser les principes formels de l'évaluation des propriétés temporelles des flots de données. L'approche se concentre sur le comportement des occurences d'un flot de données dans une chaîne d'acquisition et sur la mise en place de l'observation pour l'évaluation de leurs caractéristiques temporelles et spécialement le retard. Ensuite, nous donnons les clefs techniques de la modélisation d enotre approche en IF et nous proposons des exemples de modélisation de quelques éléments de la chaîne d'acquisition, mais aussi la modélisation de l'observation pour l'évaluation des caractéristiques temporelles. Cette modélisation s'appuie sur deux approches différentes de modélisation de la chaîne d'acquisition, un premier à un niveau de spécification et un autre à un niveau d'implémentation. Enfin, nous donnons les résultats de l'approche proposée sur des exemples de chaînes d'acquisition, et nous présentons plusieurs utilisations possibles des résultats obtenus (paramétrage ou tuning d'un pilote d'équipement, détermination du langage de retard pour une chaîne d'acquisition). Au final, l'étude de l'évaluation du retard montre l'influence des paramètres de configuration du pilote sur les retards des données traitées par l'application.
Styles APA, Harvard, Vancouver, ISO, etc.
34

Al-Moussa, Yasser. « Un langage de spécification de la connaissance statistique dans un cadre de système expert de contrôle de qualité ». Aix-Marseille 3, 1991. http://www.theses.fr/1991AIX32036.

Texte intégral
Résumé :
Ce travail consite a definir une maquette de s. E. Pour la representation et la resolution du probleme de controle statistique de qualite (cas de controle de reception par attributs). La structure de cette maquette est basee sur la definition d'un langage de specification de la connaissance statistique pour la representation et la resolution de probleme, par la resolution du modele statistique decisionnel (methodes de conception des regles de decision selon des differents principes statisitiques). Les connaissances en statistique sont parfois de type heristique ; elles sont alors representees par des regles de production, et celles de type algorithmique sont represebtees par des procedures enchevetrees, commandees par les regles, les connaissances de meme type sont regroupees dans des modules. Chaque module est dote d'une ou plusieurs taches, selon une strategie generale de raisonnement. Les expertises du domaine (methodologies de conception des plans de controle) sont representees sous forme de strategies, dans un module "stragegies de controle". Les connaissances de ce module sont susceptibles de creer une representation foremelle par le langage de specification, par l'intermediaire du module "representation par la statistique de l'environnement et les objectifs du controle" avec la conception du modele statistique decisionnel
This work want to define a model of an expert system for representation and resolution of the quality statistical control problem (reception control and by attributs case). The structure of this model is based on the definition of a specification language of statistical knowledge for representation and resolution of the problem by the decisional statistical model (conception methodes of the decision rules according to the differentes statistical principales). The statistical knwledge are sometime heuristic, so they are represented by production rules : algorithmic ones are represented by tangly processes, ordered by the rules. The same type of knowledge are grouped in the same modules. Each module has got one or more tasks, according a general reasoning strategy;. The expertise in the domain (conception methode of a sampling plan) are represebted by strategies, in a module "control strategies". The knowledges of these modules are susceptible to create formal representation by the specification language, by the countershaft of the module "representation by statistic" of the environment and the objectives control" with conceptionof the decisional statistical model
Styles APA, Harvard, Vancouver, ISO, etc.
35

Denis, Éloïse. « Objets-tests numériques pour le contrôle de qualité des systèmes de planification géométrique des traitements en radiothérapie ». Nantes, 2008. http://www.theses.fr/2008NANT2135.

Texte intégral
Résumé :
Ce travail de thèse présente la conception et la mise en oeuvre de méthodes innovantes d'évaluation quantitative et automatique de la qualité des outils de planification géométrique des traitements en radiothérapie externe. Le contrôle de qualité des systèmes de planification des traitements (TPS) est obligatoire en France et dans le monde de par les risques encourus, mais les outils physiques recommandés pour mener à bien ce contrôle de qualité sont inadaptés. Nous présentons une nouvelle méthodologie de contrôle qualité basée sur la définition d'Objets-Tests Numériques (OTN) qui sont directement introduits dans le TPS sans passer par le capteur. Ces objets numériques sont définis à la fois sous des représentations continues et discrètes cohérentes. Les réponses des TPS aux OTN d'entrée sont comparées aux résultats théoriques grâce à des figures de mérite spécifiquement définies pour chaque type de données. Ce procédé permet alors d'évaluer quantitativement et automatiquement la qualité des TPS. Les tests effectués au cours de ce travail ont permis de valider nos solutions de contrôle qualité pour les outils de contourage automatique, d'expansion et d'érosion automatiques, de positionnement de l'isocentre, de conformation du collimateur, de génération des radiographies digitales reconstruites, de positionnement des marqueurs cutanés, ainsi que pour la rotation du collimateur, l'incidence, la divergence et les dimensions des faisceaux affichés. Les solutions d'assurance qualité des TPS que nous proposons dans ce travail sont donc rapides et efficaces d'une part (aucune acquisition par le capteur source, manipulations réduites), et plus précises d'autre part, de par l'équivalence continue-discrète mise en place à la source de la modélisation
This work presents the conception and implementation of new automatic and quantitative quality assessment methods for geometric treatment planning in external radiotherapy. Treatment planning Systems (TPS) quality control is mandatory in France and in the world because of encountered risks but the physical tools recommended to lead this quality control are not adapted to the situation. We present a new methodology for control quality based on the definition of Digital Test Objects (DTO) that are directly introduced in the TPS without acquisition device. These DTO are consistently defined in a continuous and discrete modes. The TPS responses to input DTO are compared to theoretical results thanks to figures of merit specifically designed for each elementary control. The tests we carried out during this study allow to validate our solutions for the quality assessment of the auto-contouring, auto-margining, isocenter computation, collimator conformation and digitally reconstructed radiograph generation tools, as well as our solutions for marker positioning, collimator and displayed bean rotation, incidence, divergence and dimensions. Quality assessment solutions we propose are then fast and effective ( no acquisition by the device, reduced manipulations), and more precise thanks to the continuous-discrete equivalence realized at the beginning of the modelling
Styles APA, Harvard, Vancouver, ISO, etc.
36

Ould, Cheikh Sidi. « Routage avec qualité de service des réseaux Mesh IEEE 802. 11s ». Versailles-St Quentin en Yvelines, 2013. http://www.theses.fr/2013VERS0039.

Texte intégral
Résumé :
Le routage et la qualité de service (QoS) demeurent un défi majeur pour améliorer les performances des réseaux mesh IEEE 802. 11s WMNs). C’est dans ce cadre que s’inscrivent les contributions de notre travail de thèse, qui consiste à améliorer le routage et la qualité de service (QoS) dans les réseaux WMNs. Afin d’apporter une solution à ce défi et d’améliorer la qualité de service de trafic temps réel, nous proposons une nouvelle méthode basée sur la réservation de la bande passante combinée avec le protocole HWMP (Hybrid Wireless Mesh Protocol), du fait que ce dernier ne supporte pas la QoS (qualité de service). Cette nouvelle méthode est nommée MBRWMN (Multi-hop Bandwidth Reservation in WMN), elle définit une technique de réservation de la bande passante et une nouvelle métrique nommée WAM (Weighted Airtim Metric) pour le protocole HWMP, MBRWMN vise à garantir saut par saut la bande passante requise pour le trafic temps réel à l’aide d’un contrôle d’admission. Cependant pour diminuer le délai de bout-en-bout et d’augmenter le débit, nous proposons une nouvelle métrique basée sur la diversité des canaux combinée avec le délai de transmission des paquets. Cette nouvelle métrique de routage nommée NMH (New Metric for HWMP protocol) est utilisée par le protocole HWMP. La solution que nous avons proposée, vise à fournir une meilleure route en calculant saut par saut, la valeur de la métrique NMH implémentée par le protocole HWMP. Dans le même objectif et pour améliorer les performances du réseau, nous avons proposé la méthode ODCAM (On Demand Channel Assignment Method), qui consiste à mettre en place un mécanisme de diversité de canaux, basé sur une méthode hybride d’affectation des canaux. Dans le but de diminuer le délai de bout-en-bout et d’augmenter le débit, notre méthode vise à calculer le long de la route entre la source et la destination, la valeur de la métrique MWCETT (Modified Weighted Cumulative Expected Transmission Time) implémentée par le protocole HWMP
The quality of service (QoS) remains a major challenge to improve the performance of the mesh networks based on IEEE 802. 11s. It is in this context that the contributions are part of our thesis, which improves the routing and quality of service (QoS) in the WMN networks. In order to provide a solution to this challenge and to improve the quality of service of real-time traffic, we propose a new method based on the reservation of bandwidth, combined with the protocol HWMP (Hybrid Wireless Mesh Protocol). This new method is called BRWMN (Multi-hop Bandwidth Reservation in WMN) and defines a technical reservation of bandwidth and a new metric called WAM (Weighted Airtim Metric) for the HWMP protocol. MBRWMN aims to provide required bandwidth hop-by-hop for the real- time traffic and uses an admission control so as to carry this out. However, to reduce the end-to-end delay and increase the throughput, we propose a new metric based on the diversity of channels combined with the transmission delay of packets. This new routing metric named NMH (New Metric for HWMP protocol) is used by the HWMP protocol. The solution we propose aimes to provide a better route for calculating the value of the metric NMH implemented by the HWMP protocol. For the same purpose and to improve the mesh network performance, we propose the method ODCAM (On Demand Channel Assignment Method), which proposes a new mechanism for channel diversity based on a hybrid method of allocating channels. The metric MWCETT (Modified Weighted Cumulative Expected Transmission time) is implemented by the HWMP protocol. In order to decrease the time of end-to-end delay and increase the throughput, our method calculates the MWCETT metric value along the route between the source and the destination
Styles APA, Harvard, Vancouver, ISO, etc.
37

Hamze, Mohamad. « Autonomie, sécurité et QoS de bout en bout dans un environnement de Cloud Computing ». Thesis, Dijon, 2015. http://www.theses.fr/2015DIJOS033/document.

Texte intégral
Résumé :
De nos jours, le Cloud Networking est considéré comme étant l'un des domaines de recherche innovants au sein de la communauté de recherche du Cloud Computing. Les principaux défis dans un environnement de Cloud Networking concernent non seulement la garantie de qualité de service (QoS) et de sécurité mais aussi sa gestion en conformité avec un accord de niveau de service (SLA) correspondant. Dans cette thèse, nous proposons un Framework pour l'allocation des ressources conformément à un SLA établi de bout en bout entre un utilisateur de services Cloud (CSU) et plusieurs fournisseurs de services Cloud (CSP) dans un environnement de Cloud Networking (architectures d’inter-Cloud Broker et Fédération). Nos travaux se concentrent sur les services Cloud de types NaaS et IaaS. Ainsi, nous proposons l'auto-établissement de plusieurs types de SLA ainsi que la gestion autonome des ressources de Cloud correspondantes en conformité avec ces SLA en utilisant des gestionnaires autonomes spécifiques de Cloud. De plus, nous étendons les architectures et les SLA proposés pour offrir un niveau de service intégrant une garantie de sécurité. Ainsi, nous permettons aux gestionnaires autonomes de Cloud d'élargir leurs objectifs de gestion autonome aux fonctions de sécurité (auto-protection) tout en étudiant l'impact de la sécurité proposée sur la garantie de QoS. Enfin, nous validons notre architecture avec différents scénarios de simulation. Nous considérons dans le cadre de ces simulations des applications de vidéoconférence et de calcul intensif afin de leur fournir une garantie de QoS et de sécurité dans un environnement de gestion autonome des ressources du Cloud. Les résultats obtenus montrent que nos contributions permettent de bonnes performances pour ce type d’applications. En particulier, nous observons que l'architecture de type Broker est la plus économique, tout en assurant les exigences de QoS et de sécurité. De plus, nous observons que la gestion autonome des ressources du Cloud permet la réduction des violations, des pénalités et limite l'impact de la sécurité sur la garantie de la QoS
Today, Cloud Networking is one of the recent research areas within the Cloud Computing research communities. The main challenges of Cloud Networking concern Quality of Service (QoS) and security guarantee as well as its management in conformance with a corresponding Service Level Agreement (SLA). In this thesis, we propose a framework for resource allocation according to an end-to-end SLA established between a Cloud Service User (CSU) and several Cloud Service Providers (CSPs) within a Cloud Networking environment (Inter-Cloud Broker and Federation architectures). We focus on NaaS and IaaS Cloud services. Then, we propose the self-establishing of several kinds of SLAs and the self-management of the corresponding Cloud resources in conformance with these SLAs using specific autonomic cloud managers. In addition, we extend the proposed architectures and the corresponding SLAs in order to deliver a service level taking into account security guarantee. Moreover, we allow autonomic cloud managers to expand the self-management objectives to security functions (self-protection) while studying the impact of the proposed security on QoS guarantee. Finally, our proposed architecture is validated by different simulation scenarios. We consider, within these simulations, videoconferencing and intensive computing applications in order to provide them with QoS and security guarantee in a Cloud self-management environment. The obtained results show that our contributions enable good performances for these applications. In particular, we observe that the Broker architecture is the most economical while ensuring QoS and security requirements. In addition, we observe that Cloud self-management enables violations and penalties’ reduction as well as limiting security impact on QoS guarantee
Styles APA, Harvard, Vancouver, ISO, etc.
38

Bouali, Tarek. « Platform for efficient and secure data collection and exploitation in intelligent vehicular networks ». Thesis, Dijon, 2016. http://www.theses.fr/2016DIJOS003/document.

Texte intégral
Résumé :
De nos jours, la filiale automobile connait une évolution énorme en raison de la croissance évolutive des technologies de communication, des aptitudes de détection et de perception de l’environnement, et des capacités de stockage et de traitement présentes dans les véhicules. En effet, une voiture est devenue une sorte d'agent mobile capable de percevoir son environnement et d’en collecter des informations, de communiquer avec les autres véhicules ou infrastructures présentes sur la route, et de traiter les données collectées. Ces progrès stimulent le développement de plusieurs types d'applications qui vont permettre d'améliorer la sécurité et l'efficacité de conduite et de rendre le voyage des automobilistes plus confortable. Cependant, ce développement repose beaucoup sur les données collectées et donc ne pourra se faire que via une collecte sécurisée et un traitement efficace de ces données détectées. La collecte de données dans un réseau véhiculaire a toujours été un véritable défi en raison des caractéristiques spécifiques de ces réseaux fortement dynamiques (changement fréquent de topologie, vitesse élevée des véhicules et fragmentation fréquente du réseau), qui conduisent à des communications opportunistes et non durables. L'aspect sécurité, reste un autre maillon faible de ces réseaux sans fils vu qu'ils sont par nature vulnérables à diverses types d'attaques visant à falsifier les données recueillies et affecter leur intégrité. En outre, les données recueillies ne sont pas compréhensibles par eux-mêmes et ne peuvent pas être interprétées et comprises si montrées directement à un conducteur ou envoyées à d'autres nœuds dans le réseau. Elles doivent être traitées et analysées pour extraire les caractéristiques significatives et informations pour développer des applications utiles et fiables. En plus, les applications développées ont toujours des exigences différentes en matière de qualité de service (QdS). Plusieurs travaux de recherche et projets ont été menées pour surmonter les défis susmentionnés. Néanmoins, ils n'ont pas abouti à la perfection et souffrent encore de certaines faiblesses. Pour cette raison, nous focalisons nos efforts durant cette thèse au développement d’une plateforme de collecte efficace et sécurisée de données dans un réseau de véhicules ainsi que l’exploitation de ces données par des applications améliorant le voyage des automobilistes et la connectivité des véhicules. Pour ce faire, nous proposons une première solution visant à déployer de manière optimale des véhicules, qui auront la tâche de recueillir des données, dans une zone urbaine. Ensuite, nous proposons un nouveau protocole de routage sécurisé permettant de relayer les données collectées vers une destination en se basant sur un système de détection et d'expulsion des véhicules malveillants. Ce protocole est par la suite amélioré avec un nouveau mécanisme de prévention d'intrusion permettant de détecter des attaquants au préalable en utilisant les filtres de Kalman. En deuxième partie de thèse, nous nous sommes concentré sur l’exploitation de ces données en développant une première application capable de calculer de manière fine l’itinéraire le plus économique pour les automobilistes ou tout gestionnaire de flottes de véhicules. Cette solution est basée sur les données influents sur la consommation de carburant et collectées à partir des véhicules eux mêmes et aussi d’autres sources d’informations dans l’Internet et accessibles via des API spécifiques. Enfin, un mécanisme spatio-temporel permettant de choisir le meilleur médium de communication disponible a été développé. Ce dernier est basé sur la logique floue et considère les informations recueillies sur les réseaux, les utilisateurs et les applications pour préserver de meilleure qualité de service
Nowadays, automotive area is witnessing a tremendous evolution due to the increasing growth in communication technologies, environmental sensing & perception aptitudes, and storage & processing capacities that we can find in recent vehicles. Indeed, a car is being a kind of intelligent mobile agent able to perceive its environment, sense and process data using on-board systems and interact with other vehicles or existing infrastructure. These advancements stimulate the development of several kinds of applications to enhance driving safety and efficiency and make traveling more comfortable. However, developing such advanced applications relies heavily on the quality of the data and therefore can be realized only with the help of a secure data collection and efficient data treatment and analysis. Data collection in a vehicular network has been always a real challenge due to the specific characteristics of these highly dynamic networks (frequent changing topology, vehicles speed and frequent fragmentation), which lead to opportunistic and non long lasting communications. Security, remains another weak aspect in these wireless networks since they are by nature vulnerable to various kinds of attacks aiming to falsify collected data and affect their integrity. Furthermore, collected data are not understandable by themselves and could not be interpreted and understood if directly shown to a driver or sent to other nodes in the network. They should be treated and analyzed to extract meaningful features and information to develop reliable applications. In addition, developed applications always have different requirements regarding quality of service (QoS). Several research investigations and projects have been conducted to overcome the aforementioned challenges. However, they still did not meet perfection and suffer from some weaknesses. For this reason, we focus our efforts during this thesis to develop a platform for a secure and efficient data collection and exploitation to provide vehicular network users with efficient applications to ease their travel with protected and available connectivity. Therefore, we first propose a solution to deploy an optimized number of data harvesters to collect data from an urban area. Then, we propose a new secure intersection based routing protocol to relay data to a destination in a secure manner based on a monitoring architecture able to detect and evict malicious vehicles. This protocol is after that enhanced with a new intrusion detection and prevention mechanism to decrease the vulnerability window and detect attackers before they persist their attacks using Kalman filter. In a second part of this thesis, we concentrate on the exploitation of collected data by developing an application able to calculate the most economic itinerary in a refined manner for drivers and fleet management companies. This solution is based on several information that may affect fuel consumption, which are provided by vehicles and other sources in Internet accessible via specific APIs, and targets to economize money and time. Finally, a spatio-temporal mechanism allowing to choose the best available communication medium is developed. This latter is based on fuzzy logic to assess a smooth and seamless handover, and considers collected information from the network, users and applications to preserve high quality of service
Styles APA, Harvard, Vancouver, ISO, etc.
39

Caneva, Sandra. « Contrôle de qualité des systèmes de calcul de distribution de dose en radiothérapie ». Toulouse 3, 2001. http://www.theses.fr/2001TOU30189.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
40

Alaya, Bechir. « Gestion de qualité de la service dans les systèmes multimédia distribués ». Le Havre, 2012. http://www.theses.fr/2012LEHA0015.

Texte intégral
Résumé :
Les applications multimédia gèrent des volumes importants de données qui doivent être exploitées en respectant les contraintes temporelles permettant de lire les paquets vidéo avec une certaine fluidité. Par ailleurs, nous constatons qu’il existe des similarités entre les applications multimédia et les SGBD temps réel. Il nous a alors semblé important d’exploiter les travaux concernant la gestion de la qualité de service (QdS) dans les SGBD temps réel afin de les appliquer aux systèmes multimédia distribués. Ce manuscrit présente une approche de la QdS dans les applications multimédia distribuées, qui permet de contrôler les composants de l’application tels que le serveur maître, les serveurs vidéo et le réseau. Nous étendons et améliorons les résultats de QdS dans deux directions. La première propose une nouvelle politique de gestion de la QdS au niveau du serveur maître et des serveurs vidéo. Nous avons proposé pour cela une architecture de contrôle par rétroaction dans le serveur maître et une stratégie de réplication de contenu vidéo en cas de surcharge des serveurs. Nous avons ensuite proposé une approche de gestion de la QdS en cas de surcharge du réseau. Notre méthode donne la possibilité de prendre en compte la criticité des images et des contraintes temps réel. Ces résultats théoriques ont été validés par des expériences mises en œuvre pour évaluer les performances de nos approches, sur un simulateur que nous avons développé
Multimedia applications manage great quantities of data, whose exploitation must respect temporal constraints in order to read the video packets without interruption. Considering the similarities existing between multimedia applications and Real-Time Databases Systems (RTDBSs), we proposed an approach which consists of adapting researches done on quality of service (QoS) management in RTDBSs to distributed multimedia systems. We present a method to control QoS of distributed multimedia applications, which allows the control of application components (master server, video servers and network). We then propose a new method to QoS management into the master server and into the video servers. From this representation, we propose a feedback control architecture applied to the master server and a replication strategy of video content in case of overload of video servers. Then, we develop an approach to QoS management in case of network overload. Experiments have permitted to evaluate the performance of our approaches implementation
Styles APA, Harvard, Vancouver, ISO, etc.
41

Djelouah, Redouane. « Vérification et réparation interactive de bases de connaissances : le système ICC de traitement des incohérences et des incomplétudes ». Angers, 2004. http://www.theses.fr/2004ANGE0031.

Texte intégral
Résumé :
Pour pouvoir utiliser un système à base de connaissances, nous devons nous assurer de sa qualité en vérifiant s'il ne contient ce qu'on peut appeler une anomalie. Dans cette thèse, nous nous intéressons aux bases de connaissances qui sont des bases de règles. Deux types d'anomalies relevant de graves erreurs dans la base sont étudiés : les incohérences et les incomplétudes. Une incomplétude révèle la nécessité de compléter la connaissance contenue dans la base afin de couvrir tout le domaine étudié. Une incohérence révèle la nécessité de réduire la connaissance contenue dans la base afin d'éliminer les déductions de connaissances contradictoires. La première phase de notre travail appelée vérification de la base consiste, d'une part, en une caractérisation formelle de l'incohérence et de l'incomplétude d'une base de règles, et d'autre part, en la proposition d'algorithmes permettant de détecter ces anomalies. Dans cette phase, une nouvelle caractérisation formelle de la cohérence d'une base de règles nommée C_Cohérence est proposée, celle-ci améliore les caractérisations proposées par ailleurs. La seconde phase de notre travail appelée réparation de la base, propose une nouvelle méthode de réparation du contenu de la base de règles permettant d'éliminer les incohérences et les incomplétudes détectées lors de la phase précédente. Cette réparation se fait en interaction avec un expert : nous proposons des modifications du contenu de la base de règles à l'expert qui décide alors de les appliquer une à une. Les deux phases de vérification et de réparation ont été implémentées dans un système nommé ICC (Interaction pour la Cohérence et la Complétude)
To use a knowledge base we must verify its quality by ensuring it does not contain what we call an anomaly. In this thesis, we use knowledge bases which are rule bases. Two types of anomalies revealing serious errors are studied : incoherencies and incompleteness. An incompleteness shows the necessity to complete the knowledge in the base so as to cover the whole area studied. An incoherence shows the need to reduce the knowledge in the base so as to eliminate the contradictory deductions. In the first phase of our work called verification of the base we propose, on the one hand, a formal characterization of incoherency and incompleteness of a rule base, on the other hand, we propose algorithms to detect these anomalies. Here we propose a new formal characterization of a rule base called C_Cohérence, this improves characterizations found in other studies. The second phase of our work called reparation of the base offers a new method of repairing the contents of a rule base which eliminates the incoherencies and incompleteness detected in the first phase. This repair takes place with interaction with an expert : we suggest modifications of the base contents to the expert who then decides whether to apply them one by one. The two phases of verification and reparation were implemented in a system called ICC
Styles APA, Harvard, Vancouver, ISO, etc.
42

Goubertier, Pascal. « Contribution à une meilleure prise en compte du choix des liaisons dans le processus de conception de produits ». Châtenay-Malabry, Ecole centrale de Paris, 1993. http://www.theses.fr/1993ECAP0315.

Texte intégral
Résumé :
Notre contribution permet la prise en compte de l'assemblage du produit et ce, dès les premiers stades de la conception en bureau d'études grâce à l'adoption d'une nouvelle démarche de conception appelée conception orientée assemblage. La démarche structurée et prévisionnelle a pour objectif de faire bien du premier coup : elle s'articule autour de l'étude des liaisons entre constituants du produit, celles-ci représentant un maillon essentiel de sa conception. Cette étude permet le choix et la faisabilité de chacune des liaisons, regroupées ensuite dans un graphe de liaisons. Chaque liaison est réalisée grâce à une séquence d'actions, ce qui permet une analyse des temps et couts d'assemblage dans différents contextes de production. Cette analyse se poursuit et est transposée au niveau de chaque sous-ensemble; ceux-ci étant détectés par désassemblage du produit. Le temps et le cout des solutions envisagées sont proposés au concepteur et constituent un élément objectif de décision dans ces choix. La pertinence et les potentialités du modèle présente sont évaluées grâce à l'étude de cas industriels: il s'agit d'une famille de produits électromécaniques. Elle a permis de démontrer le choix non optimum d'une liaison sur un produit existant et de chiffrer objectivement un choix technologique sur un produit en étude
Styles APA, Harvard, Vancouver, ISO, etc.
43

Le, Duc Bao. « A QoI-aware framework for adaptative monitoring ». Paris 6, 2010. http://www.theses.fr/2010PA066636.

Texte intégral
Résumé :
Computing systems has undergone a clear shift towards a larger scale. Highly distributed systems are the standard, people and companies have now a pervasive access to a massive and continuous information flow through a wide variety of devices and systems. While high-level protocols attempt to tame the fast evolution of hardware and software technologies, challenges of reliability, flexibility, openness and 24/7 availability lead to crucial needs of dynamic control and adaptation over all large-scale distributed systems. In this context, monitoring application services becomes more and more a transverse key activity. Beyond traditional system administration and load control, new activities such as autonomic management and decision making systems raise the stakes over monitoring requirements. These systems are now organized around Service Level Agreements referring to some Quality of Service (QoS) criteria. With very different systems consuming monitoring data, requirements on these data also vary in terms of lifespan, precision or granularity. This is referred as Quality of Information (QoI), i. E. , an expression of the properties required from the monitored QoS. While monitoring systems with different objectives are proposed to tackle some of the identified issues, the contribution of this PhD thesis is ADAMO, a QoS-aware framework for ADAptive MOnitoring. This framework tackles user provided quality of information (QoI)-aware data queries over dynamic data streams and transforms them into probe configuration settings under resource constraints. In a monitoring system, trade-offs are often needed between QoI, which is required by decision making systems, against system resources when too high QoI impairs system performance. Multiple consumers also tend to share data sources with different on QoI requirements. Thus, the proposed framework relies on a constraint-solving approach in order to provide static and dynamic mechanisms with flexible data access for multiple clients with different QoI needs, as well as generation and configuration of QoS and QoI handling components. Besides, the ADAMO framework factors out the common structure and behavior of monitoring systems in component architecture, so that they can be reusable and extensible. It also provides several extension points which can be altered to support new features. Different parts of the architecture are configurable, or can be partly generated from high-level descriptions of the monitoring requirements. The monitoring framework also dynamically adapts itself to resource constraints. This self-adaptation mechanism is built using all mechanisms of the framework itself, therefore illustrating its own capabilities
Les systèmes distribués et ubiquitaires sont maintenant déployés de manière massive et avec des contraintes de disponibilité 24 heures sur 24 et 7 jours sur 7. Dans ce contexte, la supervision devient une activité fondamentale et transervale dans les systèmes informatiques d'entreprise. Au-delà de l'administration traditionnelle des systèmes et du contrôle de leur charge, de nouvelles activités requièrent de plus en plus une gestion automatisée de ces systèmes, amenant à de nouvelles exigences de supervision. Des tâches spécifiques telles que la planification, l'allocation de ressources et le diagnostic fondent leurs décisions sur des informations dynamiques et continues provenant de la supervision des services, des systèmes et des infrastructures. De plus, ces prises de décision et plus généralement, la gestion autonome des systèmes, sont désormais organisés autour de Service Level Agreements (SLAs) se référant à des critères de Qualité de Service (QdS). Comme d'importantes fluctuations de QdS sont communément subies par les clients lors des appels distants de service, une grande variation dans les exigences de supervision est aussi observée, que ce soit leur durée de vie, leur précision et leur granularité. Ceci se définit généralement comme la Qualité de l'Information (QdI), c'est-à-dire une expression des propriétés requises sur les données supervisées [Buchholz03]. Par ailleurs les contextes de déploiement ont aussi évolué en taille et en complexité, à partir de systèmes centralisés couplés à un réseau à faible latence, en passant par des infrastructures inter-entreprises à grande échelle et à forte latence, pour aboutir à des systèmes ubiquitaires caractérisés par des contextes fortement dynamiques. La contribution de cette thèse est ADAMO (ADAptive MOnitoring), un canevas de supervision adaptatif pour la gestion de la QdI. Partant de sources de données produisant des flots dynamiques, ce canevas permet de prendre en compte des requêtes de supervision de données explicitant les sources ainsi que la QdI requises de chacune, et de les transformer en paramètres de configuration des sources de base, tout en tenant compte de contraintes de ressources, comme la bande passante réseau totale affectée à la transmission de ces données. Nous partons ainsi du principe que, dans un système de supervision, des arbitrages sont souvent nécessaires entre la QdI, requise par les systèmes de prise de décision, et les ressources du système pour effectuer les supervisions nécessaires. Lorsque la QdI demandée est trop élevée, l'activité de supervision dégrade fortement les performances du système sous-jacent. En observant que les clients ont souvent tendance à s'intéresser aux mêmes données, mais avec des besoins de QdI différents, ADAMO repose sur une approche de résolution de contraintes pour fournir des mécanismes, statiques et dynamiques, qui gèrent un accès partagé, optimisé et flexible aux données par la génération et la configuration des composants de gestion de la QdI et de la QdS. Construit d'entités abstraites et générales, ADAMO vise à englober les capacités d'un grand nombre de systèmes de supervision. Afin d'être réutilisable et extensible, il est aussi fondé sur une architecture à composants et fournit des points d'extension, facilitant ainsi l'introduction de nouvelles fonctionnalités. Différentes parties de l'architecture sont aussi configurables, et peuvent être partiellement générées à partir de descriptions de haut niveau correspondant aux exigences de supervision. Enfin, le canevas s'auto-adapte de façon dynamique aux variations du niveau des ressources. Ce mécanisme est lui-même construit en utilisant tous les éléments du canevas, et illustre ainsi ses capacités d'abstraction et d'extension
Styles APA, Harvard, Vancouver, ISO, etc.
44

Boite, Julien. « Acheminement différencié et auto-adaptatif des flux réseau pour la qualité de livraison des serivces ». Troyes, 2012. http://www.theses.fr/2012TROY0032.

Texte intégral
Résumé :
Les réseaux de communication donnent aujourd’hui accès à des services nombreux et variés devenus omniprésents dans nos activités. Solliciter un service génère un ensemble de flux dont l’acheminement est de la responsabilité́ du réseau. Certains flux sont soumis à des contraintes de criticité́ ou de qualité́ qui doivent être respectées pour que les services soient délivrés conformément aux exigences des utilisateurs. L’infrastructure réseau comprend des moyens nombreux et diversifiés d’accéder aux éléments qui interviennent dans la livraison des services. L’unification de ces moyens offre une grande richesse dont il faut tirer le meilleur parti. Dans cette thèse, nous cherchons à rendre le réseau capable d’exploiter ces différents moyens de façon opportune en adaptant automatiquement l’acheminement des flux selon leurs contraintes et l’état du réseau. Il s’agit alors d’évaluer les prestations offertes par différents chemins pour juger de leur adéquation avec les besoins respectifs des flux, et de configurer le réseau dynamiquement pour mettre en oeuvre cet acheminement différencié et flexible des flux. Nous proposons des mécanismes de mesure et d’acheminement dynamique pour intégrer ces fonctionnalités de traitement adaptatif des flux au sein du réseau. Nous les appliquons à un scenario de sélection de passerelle dans les réseaux sans fil maillés hétérogènes. Nous étudions également le problème d’instabilité́ qui peut survenir avec un routage adaptatif dans un large réseau overlay et proposons un mécanisme qui réduit cette instabilité́
Communication networks allow accessing a wide and diversified range of services that took a prominent place in our activities. The solicitation of a service generates a set of flows. The network is responsible for routing and forwarding them. Some flows are subject to particular criticality or quality constraints that must be met to ensure that services are delivered in accordance with users’ growing expectations. The network infrastructure combines the various means to reach the elements involved in the delivery of services. The unification of these means is a wealth which we should take profit of better than we do now. In this thesis, we investigate how to make the network able to exploit all these resources in a timely manner by automatically forwarding flows according to their constraints and network status. It requires to monitor the performance offered by different paths to state on their ability to deal with the respective needs of flows. Then, the network must be configured dynamically to set up this differentiated and flexible forwarding of flows. We propose mechanisms for performing measurements and dynamic forwarding to integrate adaptive flow processing functionalities within the network. We instantiate these mechanisms to deal with an adaptive gateway selection in heterogeneous wireless mesh networks. We also investigate the instability problem that can occur with adaptive routing in a large overlay network. We assess the extent of this problem and propose a mechanism that reduces this instability
Styles APA, Harvard, Vancouver, ISO, etc.
45

Jumel, Fabrice. « Définition et gestion d'une qualité de service pour les applications temps réel ». Vandoeuvre-les-Nancy, INPL, 2003. http://www.theses.fr/2003INPL094N.

Texte intégral
Résumé :
Ce travail de thèse se situe dans le cadre de l'aide au développement des systèmes automatisés échantillonnés. L'objet principal de ces travaux consiste en l'évaluation des différents paramètres exprimant la qualité de régulation en fonction des caractéristiques de l'architecture opérationnelle. Deux approches possibles ont été étudiées: soit une étude analytique, soit une simulation basée sur des modèles. Différents modèles d'architecture opérationnelle implémentant les applications de contrôle-commande ont été proposés ou étudiés. Ils permettent d'évaluer l'influence d'une architecture sur l'évolution du système échantillonné et donc leur qualité de fonctionnement. Ces modèles permettent directement l'étude du fonctionnement nominal, ils ont aussi été adaptés de manière à proposer une méthode d'évaluation de la sûreté de fonctionnement de ces mêmes architectures en présence de défaillances transitoires. Enfin un ensemble de techniques d'ordonnancement, basées notamment sur des techniques de réservation " temps réel", a été présenté de manière à améliorer la qualité de fonctionnement de ces applications
The aim of this thesis is to provide some helps for the design of real time control system. The main contribution is to link the quality of the controlled system with the different parts of the control application's implementation. Both analytical analysis and simulation have been studied, using different models for the architecture of the control application. Those models allow a direct study of the nominal mode and have been adapted in order to propose some evaluation techniques for the safety of the control system in presence of transient faults. Finally, different scheduling techniques, especially based on "real time" resource reservation algorithms, have been presented in order to increase the quality of those applications
Styles APA, Harvard, Vancouver, ISO, etc.
46

Shahram, Nourizadeh. « Un système de télésanté contextuel avec support de qualité de service pour le maintien à domicile ». Phd thesis, Institut National Polytechnique de Lorraine - INPL, 2011. http://tel.archives-ouvertes.fr/tel-00645544.

Texte intégral
Résumé :
Cette thèse est une thèse CIFRE entre le LORIA et la société MEDETIC et porte sur la conception des systèmes de télésurveillance pour le maintien à domicile des personnes âgées. Le système est conçu aux personnes âgées qui veulent passer leur vieillesse dans leur propre maison, à cause de son potentiel pour augmenter l'indépendance et la qualité de la vie. Cela profiterait non seulement aux personnes âgées qui veulent vivre dans leur propre maison, mais aussi le système de santé publique en coupant des prix de façon significative. Mis à part la conception d'une architecture de télésurveillance " Vill'Âge® "basée sur des réseaux de capteurs hétérogènes (Domotique, IEEE802.15.4/Zigbee, Wifi, Bluetooth), la thèse a contribué essentiellement sur la proposition d'un protocole de clustering et de routage dans le réseau de capteurs sans fil avec une approche de la logique floue, et d'un middleware pour la collecte et le traitement des données des capteurs avec la gestion de la qualité de service comme particularité. Une première plateforme de test à été développée à Colmar (MEDETIC) et une seconde, plus complète et fait suite de cette thèse, est en cours de développement au LORIA (http://infositu.loria.fr/). Nous avons participé dans le concours de ministère de l'Enseignement supérieur et de la recherche avec un projet intitulé MPIGate: " Multi Protocol Interface and GATEway for Telecare, Environment Monitoring and Control " et nous avons gagné le prix de ce concours au niveau d'émergence.
Styles APA, Harvard, Vancouver, ISO, etc.
47

Labéjof, Jonathan. « R-* : Réflexivité au service de l'évolution des systèmes de systèmes ». Thesis, Lille 1, 2012. http://www.theses.fr/2012LIL10078/document.

Texte intégral
Résumé :
Dans un monde de plus en plus connecté, le besoin d’interconnecter des systèmes hétérogènes apparait de plus en plus présent. Les Systèmes de Systèmes (SoS) sont une approche de supervision et de contrôle global où les systèmes constituants sont caractérisés comme des sous-systèmes du SoS. Certains de ces sous-systèmes peuvent être sujets à un environnement dynamique leur demandant d’évoluer pour répondre à de nouvelles exigences, voire de s’adapter s’ils doivent répondre à un besoin de disponibilité. La principale difficulté dans la gestion des évolutions possibles est qu’elles peuvent impacter plusieurs sous-systèmes connectés, et par extension, une vision globale comme celle proposée par un système de systèmes. Ainsi, les problèmes d’évolution et d’adaptation d’un SoS se posent. Dans un cadre d’ingénierie logicielle, cette thèse propose l’approche R-* qui soutient l’hypothèse que plus un système est Réflexif, et plus il devient capable de s’adapter, et donc d’évoluer. Trois contributions majeures et un cas d’utilisation sont proposés pour justifier l’intérêt de R-*. R-DDS et R-MOM ajoutent la capacité de réflexivité dans des sous-systèmes de communication asynchrones, et R-EMS ajoute la capacité de réflexivité sur la vision globale d’un SoS, incluant ses sous- systèmes et son environnement. R-DDS ajoute la réflexivité à l’intergiciel de Service de Distribution de Données dédié aux domaines du temps-réel et de l’embarqué. R-MOM remonte en abstraction pour proposer la réflexivité au niveau des fonctionalités d’un intergiciel asynchrone. R-EMS est un système de gestion d’environnement réflexif en support de l’utilisation d’un SoS. Finalement, le cas d’utilisation est une implémentation d’un sous-modèle du système de systèmes TACTICOS de THALES, qui servira également d’environnement d’évaluation
In a connected world, interconnection of heterogeneous systems becomes a need. Systems of systems (SoS) answer to this need by providing global supervision and control over such systems, named sub-systems in the context of SoS. Some sub-systems face to a dynamic environment, therefore, they have to evolve in order to meet new requirements, and they have to perform adaptations whenever availability is a requirement. Main difficulty about evolution is it can concern a set of sub-systems, or a global vision such as one provided by system of systems. Therefore, the problems of evolution and adaptation are important. In the domain of software engineering, this thesis provides the R-* approach that defends the hypothesis that the more a system is Reflective, and the more it is able to adapt, and so, to evolve. Three major contributions and one use case justify R-*. R-DDS and R-MOM add reflective capabilities in asynchronous communication sub-systems, and R-EMS adds reflectivity on a global vision of a SoS, its sub-systems and its environment. R-DDS adds reflectivity to Data Distribution Service dedicated to real-time and embedded domains. R-MOM goes up in abstraction compared to R-DDS, in adding reflective capabilities at level of asynchronous middleware functionalities. R-EMS is a Reflective Environment Management System helping SoS use. Finally, use case and evaluation are done over a sub-model implementation of THALES’ SoS TACTICOS
Styles APA, Harvard, Vancouver, ISO, etc.
48

Gourmelin, Yves. « Optimisation de l'utilisation des systèmes de traitement des analyses biologiques ». Paris 12, 1995. http://www.theses.fr/1995PA120012.

Texte intégral
Résumé :
Le travail presente s'inscrit dans le cadre de 20 ans de pratique de la biologie hospitaliere et d'evaluations de materiels de biochimie clinique. Ce travail a pour but de proposer et promouvoir, a travers une reflexion critique sur nos travaux et ceux de nos collegues francais et etrangers, une approche aussi efficace que possible de la qualite totale en biologie medicale. Apres avoir etudie des evaluations francaises et etrangeres et les compte-rendus qui en on ete faits, nous constatons qu'il n'existe aucune homogeneite dans ces etudes, tant pour les protocoles que pour l'interpretation des resultats. Nous demontrons que les outils statistiques classiques ne sont pas suffisamment performants et qu'il faut privilegier les representations graphiques dont nous donnons de nombreux exemples issus de nos propres travaux. Cette representation graphique doit egalement etre utilisee pour les autres donnees fournies par le laboratoire d'analyses medicales, comme les resultats d'analyses pour les patients. Les outils informatiques aujourd'hui disponibles permettent de realiser aisement des presentations claires et informatives et de se placer dans un reseau de communications. Il est propose: des protocoles evolutifs adaptes aux systemes etudies des procedures permettant une auto-evaluation des representations graphiques claires et informatives
Styles APA, Harvard, Vancouver, ISO, etc.
49

Jelassi, Sofiene. « Contrôle adaptatif de la qualité lors du transfert interactif de la voix sur un réseau mobile ad-hoc ». Paris 6, 2010. http://www.theses.fr/2010PA066190.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
50

Mordal, Karine. « Analyse et conception d'un modèle de qualité logiciel ». Paris 8, 2012. http://www.theses.fr/2012PA084030.

Texte intégral
Résumé :
Nous présentons un modèle et un prototype d'analyse et d'évaluation de la qualité de grands logiciels de taille industrielle, le modèle Squash, fondé sur le modèle empirique conçu par les entreprises Qualixo et Air-France KLM. Nous déterminons une méthodologie précise d'évaluation de principes de qualité, tant au niveau technique que fonctionnel. A partir de notre méthodologie nous avons formalisé un modèle de qualité prenant en compte les particularités et exigences du domaine industriel. L'implémentation de ce modèle est en cours de validation chez Générali. A partir de l’étude des domaines du développement informatique et de la validation fonctionnelle, nous avons formalisé un modèle de qualité hiérarchique fondé sur les normes ISO 9126 et SquARE. Ce modèle est composé de deux niveaux : le niveau conceptuel de la qualité qui définit les grands principes de qualité à évaluer et le niveau technique de la qualité qui décrit des règles techniques de base et les mesures associées permettant l'évaluation du niveau supérieur. La principale difficulté dans l’élaboration de ce type de modèle consiste à déterminer comment passer des principes de qualité aux mesures et vice versa, tout en respectant deux principes fondamentaux : ne pas masquer les progrès et mettre en évidence les problèmes. Pour y parvenir nous utilisons d'une part, des formules de combinaison et d’agrégation de métriques et d'autre part, des formules à base de logique floue permettant d'évaluer la qualité à partir de mesures non issues de métriques
We present a model and prototype for analysis and assess quality of large size industrial software, Squash model based on the empirical model developed by Qualixo and Air France-KLM enterprises. We determine an evaluation methodology for both technical and functional quality principles. Then we formalized a quality model taking into account the industrial applications requirements from this methodology. The implementation of this model is being validated by Generali. From the domain of software development and functional validation, we have formalized a model based on hierarchical quality models from standards ISO 9126 and Square. This model is divided into two levels: the conceptual quality level that defines the main quality principles and the technical quality that defines basic technical rules and measures used to assess the top level. The main issue of quality model conception is how to bring the gap between metrics and quality principles : the metrics meannig often defined for individual components cannot be easily transposed to higher abstraction levels. Furthermore, we need to highlight problems and do not hide progress. To achieve this, we use combinaison and aggregation formulas to asses quality principles from metrics and fuzzy logic to assess quality principles from non-metric measurements
Styles APA, Harvard, Vancouver, ISO, etc.
Nous offrons des réductions sur tous les plans premium pour les auteurs dont les œuvres sont incluses dans des sélections littéraires thématiques. Contactez-nous pour obtenir un code promo unique!

Vers la bibliographie