Dissertations / Theses on the topic 'Environnements d'exécution de confiance'

To see the other types of publications on this topic, follow the link: Environnements d'exécution de confiance.

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 20 dissertations / theses for your research on the topic 'Environnements d'exécution de confiance.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Royon, Yvan. "Environnements d'exécution pour passerelles domestiques." Phd thesis, INSA de Lyon, 2007. http://tel.archives-ouvertes.fr/tel-00271481.

Full text
Abstract:
Le marché des passerelles domestiques évolue vers un nouveau modèle économique, où de multiples acteurs sont amenés à fournir des services vers nos domiciles : multimédia à la demande, domotique, télésécurité, aide aux personnes âgées ou handicapées\ldots

Ce nouveau modèle économique a des répercussions techniques sur les passerelles domestiques. Ces équipements à ressources limitées doivent alors supporter le déploiement, l'exécution et la gestion de plusieurs éléments logiciels (modules), en provenance de fournisseurs différents. Ceci se traduit par des besoins en terme d'isolation d'exécution locale, de gestion à distance, d'infrastructure de déploiement et de modèle de programmation.

Dans ces travaux, nous proposons de répondre à ces quatre familles de besoins en nous appuyant sur deux types d'environnements d'exécution : Java/OSGi et C/Linux.

Nous proposons de combler les fonctionnalités manquantes à ces deux environnements, afin d'obtenir un système conforme au modèle multi-services.
APA, Harvard, Vancouver, ISO, and other styles
2

Carpentier, Robin. "Privacy-preserving third-party computations on secure personal data management systems." Electronic Thesis or Diss., université Paris-Saclay, 2022. http://www.theses.fr/2022UPASG079.

Full text
Abstract:
La centralisation des données personnelles par certaines des entreprises les plus influentes du monde met en péril la vie privée des individus. Des législations récentes comme le Règlement Général sur la Protection des Données en Europe encadrent la collecte et le traitement des données des citoyens. En particulier, le droit à la portabilité permet aux individus de récupérer une copie de leurs données détenues par un organisme. Conjointement, des solutions de Cloud Personnels (PDMS) se développent, renforçant l'autonomisation des utilisateurs en leur facilitant la gestion de leurs données. Elles permettent notamment la collecte automatique de données, leur partage et la prise en charge de traitement avancés. Dans ces solutions, les données de l'utilisateur sont traitées directement là où elles sont stockées par un code de traitement écrit par un tiers. Ici, seuls les résultats sont partagés à un tier sur décision de l'utilisateur. Ce paradigme est en opposition avec l'approche classique qui voit les données de l'utilisateur partagée dans leur intégralité à un tier pour être traitées. Pour être viables, les PDMS doivent satisfaire deux prérequis : ils doivent assurer la sécurité des données en présence d'un utilisateur novice dans ce domaine tout en étant le plus extensible possible afin de garantir une richesse de traitements sur ces données. Pour adresser ce conflit entre extensibilité et sécurité, cette thèse s'appuie sur une architecture incluant des modules tiers couplée à des mécanismes de sécurité matériels appelés Environnements d'Exécution de Confiance. Nous proposons des briques de sécurité pour limiter les fuites de données résultant de l'utilisation de ces modules tiers ainsi que des stratégies d'exécution implémentant ces briques et limitant l'impact sur les performances des traitements
The privacy of individuals is constantly undermined by some of the most prominent companies in the world which centralize vast amounts of personal data. Recent legal means such as the General Data Protection Regulation in Europe regulate the collection and processing of citizens' data. In particular, data portability grants individuals the right to recover a copy of their data held by an organization. At the same time, Personal Data Management Systems (PDMS) are emerging, empowering users by facilitating the management of their data. For example, these solutions enable automatic data collection, sharing, and advanced processing. In these solutions, the user's data is processed directly where it is stored by a processing code potentially written by a third party. Here, only the results are shared with a third party upon the user's decision. This paradigm diverges from the traditional approach in which the user's data is entirely shared with a third party for processing. To be viable, PDMS must satisfy two prerequisites: they must ensure the security of the data in the presence of a layman user while being as extensible as possible to support diverse computations on this data. To address this conflict between extensibility and security, this thesis relies on an architecture including third-party modules coupled with hardware security mechanisms called Trusted Executions Environments. In this context, we propose security building blocks to limit data leakage resulting from the use of these third-party modules as well as execution strategies implementing these building blocks and limiting the impact on performances
APA, Harvard, Vancouver, ISO, and other styles
3

Arfaoui, Ghada. "Conception de protocoles cryptographiques préservant la vie privée pour les services mobiles sans contact." Thesis, Orléans, 2015. http://www.theses.fr/2015ORLE2013/document.

Full text
Abstract:
Avec l'émergence de nouvelles technologies telles que le NFC (Communication à champ proche) et l'accroissement du nombre de plates-formes mobiles, les téléphones mobiles vont devenir de plus en plus indispensables dans notre vie quotidienne. Ce contexte introduit de nouveaux défis en termes de sécurité et de respect de la vie privée. Dans cette thèse, nous nous focalisons sur les problématiques liées au respect de la vie privée dans les services NFC ainsi qu’à la protection des données privées et secrets des applications mobiles dans les environnements d'exécution de confiance (TEE). Nous fournissons deux solutions pour le transport public: une solution utilisant des cartes d'abonnement (m-pass) et une autre à base de tickets électroniques (m-ticketing). Nos solutions préservent la vie privée des utilisateurs tout en respectant les exigences fonctionnelles établies par les opérateurs de transport. À cette fin, nous proposons de nouvelles variantes de signatures de groupe ainsi que la première preuve pratique d’appartenance à un ensemble, à apport nul de connaissance, et qui ne nécessite pas de calculs de couplages du côté du prouveur. Ces améliorations permettent de réduire considérablement le temps d'exécution de ces schémas lorsqu’ils sont implémentés dans des environnements contraints par exemple sur carte à puce. Nous avons développé les protocoles de m-passe et de m-ticketing dans une carte SIM standard : la validation d'un ticket ou d'un m-pass s'effectue en moins de 300ms et ce tout en utilisant des tailles de clés adéquates. Nos solutions fonctionnent également lorsque le mobile est éteint ou lorsque sa batterie est déchargée. Si les applications s'exécutent dans un TEE, nous introduisons un nouveau protocole de migration de données privées, d'un TEE à un autre, qui assure la confidentialité et l'intégrité de ces données. Notre protocole est fondé sur l’utilisation d’un schéma de proxy de rechiffrement ainsi que sur un nouveau modèle d’architecture du TEE. Enfin, nous prouvons formellement la sécurité de nos protocoles soit dans le modèle calculatoire pour les protocoles de m-pass et de ticketing soit dans le modèle symbolique pour le protocole de migration de données entre TEE
The increasing number of worldwide mobile platforms and the emergence of new technologies such as the NFC (Near Field Communication) lead to a growing tendency to build a user's life depending on mobile phones. This context brings also new security and privacy challenges. In this thesis, we pay further attention to privacy issues in NFC services as well as the security of the mobile applications private data and credentials namely in Trusted Execution Environments (TEE). We first provide two solutions for public transport use case: an m-pass (transport subscription card) and a m-ticketing validation protocols. Our solutions ensure users' privacy while respecting functional requirements of transport operators. To this end, we propose new variants of group signatures and the first practical set-membership proof that do not require pairing computations at the prover's side. These novelties significantly reduce the execution time of such schemes when implemented in resource constrained environments. We implemented the m-pass and m-ticketing protocols in a standard SIM card: the validation phase occurs in less than 300ms whilst using strong security parameters. Our solutions also work even when the mobile is switched off or the battery is flat. When these applications are implemented in TEE, we introduce a new TEE migration protocol that ensures the privacy and integrity of the TEE credentials and user's private data. We construct our protocol based on a proxy re-encryption scheme and a new TEE model. Finally, we formally prove the security of our protocols using either game-based experiments in the random oracle model or automated model checker of security protocols
APA, Harvard, Vancouver, ISO, and other styles
4

Mahéo, Yves. "Environnements pour la compilation dirigée par les données : supports d'exécution et expérimentations." Phd thesis, Université Rennes 1, 1995. http://tel.archives-ouvertes.fr/tel-00497580.

Full text
Abstract:
La difficulté de programmation des architectures parallèles à mémoire distribuée est un obstacle à l'exploitation de leur puissance de calcul potentielle. Parmi les différentes approches proposées pour pallier à cette difficulté, celle de la compilation dirigée par les données semble prometteuse, notamment dans le domaine du calcul scientifique. Le programme source, exprimé par exemple en HPF, est un programme séquentiel impératif dans lequel il est précisé comment sont réparties les données sur les processeurs ; le compilateur dérive un code parallèle en distribuant le contrôle d'après la distribution des données. La mise en oeuvre de cette approche nécessite le développement d'environnements complets. Cette thèse présente le travail réalisé dans le cadre d'un environnement de ce type : l'environnement Pandore. Nous nous sommes intéressés à la conception et la réalisation d'un exécutif portable et efficace qui doit être associé au compilateur ainsi qu'à l'évaluation des performances des programmes générés. Après avoir situé l'approche de la compilation par distribution de données dansle contexte plus large de la programmation des machines parallèles à mémoire distribuée, nous définissons des opérations de haut niveau qui permettent la description des schémas de compilation et la prise en compte des optimisations. Deux types de machines cibles sont considérés, d'une part des machines à messages et d'autre part des machines disposant d'un mécanisme de mémoire virtuelle partagée. Les points clés de la mise en oeuvre des opérations dans le compilateur et l'exécutif sont abordés. Nous insistons plus particulièrement sur la gestion des données distribuées et sur les optimisations des communications à l'exécution. Une mise en oeuvre réalisée dans l'environnement Pandore est ensuite détaillée. L'évaluation des performances des programmes est également étudiée, dans un premier temps par une série d'expérimentations sur plusieurs applications et dans un deuxième temps par la définition d'outils de mesure et de visualisation adaptés à la compilation par distribution de données.
APA, Harvard, Vancouver, ISO, and other styles
5

Rocha, barbosa Cassandra. "Coordination et ordonnancement de tâches à grains fins entre environnements d'exécution HPC." Electronic Thesis or Diss., Reims, 2023. http://www.theses.fr/2023REIMS016.

Full text
Abstract:
Les supercalculateurs deviennent de plus en plus complexes à utiliser. C’est pourquoi l’utilisation de modèle de programmation dit hybride, MPI + X, sont mis en place dans les applications. Ces nouveaux types de modèle permettent une utilisation plus efficace d’un supercalculateur, mais créent aussi de nouveaux problèmes lors de l’exécution des applications. Ces problèmes sont de différents types.Nous étudierons plus précisément trois problèmes liés aux programmations MPI + X. La progression des communications non bloquante de MPI au sein de l’environnement X. Puis deux types de déséquilibre possible dans les applications MPI+X. Le premier étant entre les processus MPI et le second au sein d’un processus MPI, c’est-à-dire le déséquilibre en sein de X.Une solution dans le cas d’un environnement X en tâches récursives sera tout d’abord présentée pour le problème de progression de communication MPI à l’aide d’insertion de tâche de progression dans l’environnement X. Lors du déséquilibre entre processus MPI, une solution de rééquilibrage de ressources au sein d’un nœud sera présentée. Enfin, pour le déséquilibre dans l’environnement X, une solution permettant d’utiliser le déséquilibre pour exécuter une seconde application sera également présentée
Supercomputers are becoming more and more complex to use. This is why the use of so-called hybrid programming models, MPI + X, are being implemented in applications. These new types of models allow a more efficient use of a supercomputer, but also create new problems during the execution of applications. These problems are of different types.More specifically, we will study three problems related to MPI + X programming. The progression of non-blocking MPI communications within the X environment. Then two types of possible imbalance in MPI+X applications. The first being between MPI processes and the second within an MPI process, i.e., imbalance within X.A solution in the case of an X environment in recursive tasks will first be presented for the MPI communication progress problem using progress task insertion in the X environment. For the imbalance between MPI processes, a solution for resource rebalancing within a node will be presented. Finally, for the imbalance in the X environment, a solution to use the imbalance to run a second application will also be presented
APA, Harvard, Vancouver, ISO, and other styles
6

Bel, Hadj Aissa Nadia. "Maîtrise du temps d'exécution de logiciels déployés dans des dispositifs personnels de confiance." Thesis, Lille 1, 2008. http://www.theses.fr/2008LIL10133/document.

Full text
Abstract:
La prolifération de petits équipements ouverts tels que les dispositifs personnels de confiance a favorisé l'essor des environnements d'exécution dynamiquement adaptables. Ainsi, de nouveaux logiciels peuvent être déployés à la volée après que les équipements soient délivrés à leurs porteurs. Par nos travaux, nous aspirons à garantir que chaque nouveau logiciel, dont le déploiement aboutit, est en mesure de délivrer les réponses aux requêtes qui lui sont adressées dans un délai maximal préalablement établi. Les garanties apportées sont cruciales tant en terme de sûreté de fonctionnement que de sécurité. À cet effet, nous avons proposé de distribuer le calcul du temps d'exécution au pire cas à la manière des approches de codes porteurs de preuve. Le fournisseur de code se voit attribuer les calculs gourmands en ressources matérielles ne supposant aucune connaissance préalable de l'environnement d'exécution sur lequel s'exécutera son logiciel, en l'occurrence la détermination des bornes des boucles. Quant au consommateur, il vérifie grâce à la preuve les bornes inférées par le fournisseur et calcule le temps d'exécution au pire cas. Nous avons évalué expérimentalement le bien-fondé de notre démarche sur une architecture matérielle et logicielle répondant aux exigences des dispositifs personnels de confiance. Enfin, nous nous sommes préoccupés du cas où plusieurs logiciels, émanant d'entité différentes, coexistent. Nous avons mis l'accent sur l'impact de l'interaction entre ces logiciels sur les garanties préalablement apportées par le système sur le temps d'exécution au pire cas et nous avons ébauché une solution basée sur les contrats pour maintenir ces garanties
The proliferation of small and open objects such as personal trusted devices has encouraged the spread of dynamically adaptable runtime environments. Thus, new software can be deployed on the fly after the devices are delivered to their holders. Through our work, we aim to ensure that each new software, whose deployment is successful, will be able to deliver responses within a maximum delay previously established. These guarantees are crucial in terms of safety and security. To this end, we propose to distribute the computation of worst case execution time. Our solution embraces a proof carrying code approach making distinction between a powerful but untrusted computer used to produce the code, and a safe but resource constrained code consumer. The producer does not assume any prior knowledge of the runtime environment on which its software will be executed. The code is statically analyzed to extract loop bounds and a proof containing this information is joint to the software. By a straightforward inspection of the code, the consumer can verify the validity of the proof and compute the global worst case execution time. We experimentally validate our approach on a hardware and software architecture which meets the requirements of trusted personal devices. Finally, we address the challenges raised when software from different service providers potentially untrusted can coexist and interact in a single device. We focus on the impact of the interaction between different software units on the guarantees previously given by the system on the worst case execution time and we outline a solution based on contracts to maintain these guarantees
APA, Harvard, Vancouver, ISO, and other styles
7

Bosilca, George. "Contribution à l'étude des environnements d'exécution parallèle fortement dynamiques à passage de messages." Paris 11, 2004. http://www.theses.fr/2004PA112316.

Full text
Abstract:
Le calcul haute performance sur des architectures parallèles utilise différentes approches en fonction du modèle de mémoire de l'architecture, du niveau d'abstraction du langage de programmation et de la nature de l'application. La première partie de cette thèse est consacrée à la présentation d'un modèle d'exécution original basé sur l'appel de procédure à distance ou RPC (Remote Procedure Call), appelé Out-of-order execution parallel Virtual Machine (OVM). Le substrat a été construit suivant trois directions : portabilité via un modèle unique de mémoire, équilibrage de charge en utilisant un support modulaire et haute performance grâce à plusieurs optimisations. Je présente ici l'architecture générale d'OVM et je démontre ses performances pour différents types d'applications parallèles-: régulières, nécessitant un équilibrage de charge et des contraintes temps-réel. Avec l'augmentation du nombre de processeurs, les déconnexions et les disparitions des nœuds deviennent des évènements courants. La seconde partie est dédiée à l'environnement MPICH-V. Cet environnement de tolérance automatique des fautes est basé sur un checkpoint non coordonnée et un logging de messages distribué. MPICH-V se base sur des mémoires de canal, des serveurs de checkpoint et sur de preuves théoriques de ses protocoles. Se concentrant sur les mémoires de canal, des résultats sont présentés et analysés, pour des applications parallèles non triviales. Les résultats expérimentaux démontrent la bonne scalabilité et un haut degré de tolérance aux fautes
Global Computing platforms, large scale clusters and future TeraGRID systems gather thousands of nodes for computing parallel scientific applications. These parallel architectures currently uses different approaches depending on the hardware memory model of the architecture, the abstraction level of the programming environment and the nature of the application. On the first part, I introduce an original client-server execution model based on RPCs called out-of-order parallel virtual machine (OVM). OVM aims to provide three main features: portability through a unique memory model, load-balancing using a plug-in support and high performance provided by several optimizations. The main optimizations are: non-blocking RPCs, data-flow management, persistent and non-persistent data, dynamic scheduling and asynchronous global operations. I present OVM general architecture and demonstrate high performance for several types of parallel applications: regular, with load balancing needs and with real-time constraints. At this scale, node failures or disconnections are frequent events. This Volatility reduces the MTBF of the whole system in the range of hour or minutes. On the second part, I present MPICH-V, an automatic fault tolerant MPI environment based on uncoordinated checkpoint/rollback and distributed message logging. MPICH-V architecture relies on Channel Memories, Checkpoint servers and theoretically proven protocols to execute SPMD and Master-Worker MPI applications on volatile nodes. Focusing on the channel memory, I present and analyse the performances for non-trivial parallel applications. Experimental results demonstrate good scalability and high tolerance to faults
APA, Harvard, Vancouver, ISO, and other styles
8

Chazalet, Antonin. "Déploiement d'Applications à Services sur des Environnements d'Exécution à Services : Une Approche Dirigée par les Modèles." Phd thesis, Université Joseph Fourier (Grenoble), 2008. http://tel.archives-ouvertes.fr/tel-00343548.

Full text
Abstract:
Notre objectif est la fourniture de services Internet basés sur des architectures "n-tiers". Dans notre contexte, ces architectures sont composées de cinq tiers : "équipements", "passerelles", "médiation", "serveur Internet" et "clients finaux". L'appréhension du tiers "passerelle" nécessite l'introduction d'applications à services qui sont destinées à répondre à des requêtes du tiers "médiation" et à collecter et transformer des données provenant du tiers "équipements" qui seront ensuite utilisées par le tiers "médiation" puis manipulées par le tiers "serveur Internet" qui est chargé de leur présentation aux clients finaux. L'introduction de telles applications à services destinées à fonctionner dans des environnements d'exécution à services nécessite la résolution de problématiques propres :
- au développement d'applications à services métiers [ML07],
- à leur déploiement dans des environnements d'exécution à services (ce qui est l'objectif de cette thèse) [CL07a]
- à la gestion dynamique des interactions entre les applications à services et les équipements (dé)- branchés à la passerelle (qui sont exposées comme des services) [EBL+08]. Le cycle de vie logiciel est composé de plusieurs phases. Les principales sont l'analyse, la conception, l'implémentation, le test et le déploiement. Cette dernière est une phase complexe qui est composée d'activités et de sous-activités comme l'installation, l'activation, la désactivation, les mises à jour statique et dynamique, l'évolution, le dynamisme et la désinstallation. L'introduction et l'utilisation de l'approche à service augmente encore la complexité de la phase de déploiement, en particulier lorsqu'il s'agit de déployer des applications à services sur des environnements d'exécution à services. Les enjeux sont, ici :
- d'exécuter des activités de déploiement sur les applications tout en respectant l'architecture de chaque application (c'est-à-dire le modèle de chaque application),
- de maîtriser l'état de déploiement des (implémentations de) services réalisant ces applications,
- d'exécuter des activités de déploiement sur des services appartenant à ces applications en ne touchant que le service ciblé et donc sans impacter entièrement les applications dans leur ensemble. Nous appelons ce dernier enjeu : "déploiement au plus près". Il impose que les unités de développement (c'est-à-dire les composants orientés service contraints) utilisées pour développer les applications et les unités de déploiement (c'est-à-dire les implémentations de services) utilisées pour réaliser les applications aient le même grain. Cette thèse propose un prototype, nommé DMSA (pour Deployment Manager for Services Applications), automatisant le déploiement d'applications à services sur des environnements à services en suivant une approche dirigée par les modèles. L'utilisation de l'approche dirigée par les modèles est une réponse à la constante montée en abstraction du déploiement et de son point d'entrée. Le découplage total entre les niveaux modèles et "réalité" a été choisi afin de permettre la réutilisation des implémentations de services entre modèles de services. Cette thèse explicite notre approche, le méta-modèle pour les applications à services, la définition du déploiement pour les applications à services, l'architecture du DMSA et nos propositions. Ces dernières ciblent le déploiement d'un, puis de plusieurs modèles d'application à services sur un environnement d'exécution à services, le déploiement "transactionnel", l'appréhension de notre contexte embarqué/réactif et l'exécution de listes ordonnées d'activités de déploiement sur des environnements d'exécutions à services.
APA, Harvard, Vancouver, ISO, and other styles
9

Chazalet, Antonin. "Déploiement d'Applications à Services sur des Environnements d'Exécution à Services : Une Approche Dirigée par les Modèles." Phd thesis, Grenoble 1, 2008. http://www.theses.fr/2008GRE10211.

Full text
Abstract:
Notre objectif est la fourniture de services Internet basés sur des architectures "n-tiers". Dans notre contexte, ces architectures sont composées de cinq tiers : "équipements", "passerelles", "médiation", "serveur Internet" et "clients finaux". L'appréhension du tiers "passerelle" nécessite l'introduction d'applications à services qui sont destinées à répondre à des requêtes du tiers "médiation" et à collecter et transformer des données provenant du tiers "équipements" qui seront ensuite utilisées par le tiers "médiation" puis manipulées par le tiers "serveur Internet" qui est chargé de leur présentation aux clients finaux. L'introduction de telles applications à services destinées à fonctionner dans des environnements d'exécution à services nécessite la résolution de problématiques propres : - au développement d'applications à services métiers [ML07], - à leur déploiement dans des environnements d'exécution à services (ce qui est l'objectif de cette thèse) [CL07a] - à la gestion dynamique des interactions entre les applications à services et les équipements (dé)- branchés à la passerelle (qui sont exposées comme des services) [EBL+08]. Le cycle de vie logiciel est composé de plusieurs phases. Les principales sont l'analyse, la conception, l'implémentation, le test et le déploiement. Cette dernière est une phase complexe qui est composée d'activités et de sous-activités comme l'installation, l'activation, la désactivation, les mises à jour statique et dynamique, l'évolution, le dynamisme et la désinstallation. L'introduction et l'utilisation de l'approche à service augmente encore la complexité de la phase de déploiement, en particulier lorsqu'il s'agit de déployer des applications à services sur des environnements d'exécution à services. Les enjeux sont, ici : - d'exécuter des activités de déploiement sur les applications tout en respectant l'architecture de chaque application (c'est-à-dire le modèle de chaque application), - de maîtriser l'état de déploiement des (implémentations de) services réalisant ces applications, - d'exécuter des activités de déploiement sur des services appartenant à ces applications en ne touchant que le service ciblé et donc sans impacter entièrement les applications dans leur ensemble. Nous appelons ce dernier enjeu : "déploiement au plus près". Il impose que les unités de développement (c'est-à-dire les composants orientés service contraints) utilisées pour développer les applications et les unités de déploiement (c'est-à-dire les implémentations de services) utilisées pour réaliser les applications aient le même grain. Cette thèse propose un prototype, nommé DMSA (pour Deployment Manager for Services Applications), automatisant le déploiement d'applications à services sur des environnements à services en suivant une approche dirigée par les modèles. L'utilisation de l'approche dirigée par les modèles est une réponse à la constante montée en abstraction du déploiement et de son point d'entrée. Le découplage total entre les niveaux modèles et "réalité" a été choisi afin de permettre la réutilisation des implémentations de services entre modèles de services. Cette thèse explicite notre approche, le méta-modèle pour les applications à services, la définition du déploiement pour les applications à services, l'architecture du DMSA et nos propositions. Ces dernières ciblent le déploiement d'un, puis de plusieurs modèles d'application à services sur un environnement d'exécution à services, le déploiement "transactionnel", l'appréhension de notre contexte embarqué/réactif et l'exécution de listes ordonnées d'activités de déploiement sur des environnements d'exécutions à services
Our goal is to provide Internet services on top of "n-tier" architectures. In our context, these architectures are made of five tiers: devices, gateways, mediation, Internet servers and presentation. Apprehending the gateways tier needs the introduction of services applications to answer the requests of the mediation tier and to collect and transform data from the "devices" tier, these data are then used by the "mediation" tier, next they are manipulated by the "Internet server" tier which is in charge of the displaying to the end users. The introduction of such services applications intended to run in services execution environments raises issues related to: - the development of business-specific services applications [ML07], - their deployment in services execution environments (this is the focus of this thesis) [CL07a] - the dynamic management of interactions between services applications and the devices (un)- plugged to the gateways (these devices are exposed as services in the environments) [EBL+08]. Software lifecycle is made of several phases. The main ones are analysis, conception, implementation, test and deployment. The latter is a complex one; it is made of activities and subactivities like installation, activation, deactivation, static and dynamic updates, evolution, dynamism and deinstallation. The introduction and use of the service approach still raises the deployment phase complexity, in particular when the goal is the deployment of services applications on services execution environments. Stakes, here, are: - to execute deployment activities targeting services applications while respecting each application's architecture (i. E. Each application's model), - to control the deployment state of the services (implementations) realizing these applications, - to execute deployment activities on services belonging to these applications while acting only the targeted service and avoiding to impact the whole applications. We called this last stake: "closely deployment" or "deployment in the small". It imposes that development units (i. E. Constraints service-oriented components) used for developing applications and deployment units (i. E. Services implementations) used for realizing applications have the same (fine) grain. This thesis proposes a software prototype, called DMSA (for Deployment Manager for Services Applications), automating the deployment of services applications on services execution environments while following a model-driven approach. Using a model-driven approach is an answer for the constant rise in abstraction of the deployment phase and of its entry point. The full decoupling between model level and "reality" level has been chosen in order to reuse services implementations between services models. This document clarifies our approach, the services applications meta-model, the services applications deployment definition, the DMSA's software architecture and our propositions. These latter target deployment of several applications models on several services execution environments, "transactional" deployment, our embedded context apprehension and execution of deployment activities ordered lists on services execution environments
APA, Harvard, Vancouver, ISO, and other styles
10

Polito, Guillermo. "Virtualization support for application runtime specialization and extension." Thesis, Lille 1, 2015. http://www.theses.fr/2015LIL10025/document.

Full text
Abstract:
Un environnement d'exécution est l'ensemble des éléments logiciels qui représentent une application pendant son exécution. Les environnements d'exécution doivent être adaptables à différents contextes. Les progrès des technologies de l'information, tant au niveau logiciel qu'au niveau matériel, rendent ces adaptations nécessaires. Par exemple, nous pouvons envisager d'étendre un langage de programmation pour améliorer la productivité des développeurs. Aussi, nous pouvons envisager de réduire la consommation mémoire des applications de manière transparente afin de les adapter à certaines contraintes d'exécution e.g., des réseaux lents ou de la mémoire limités. Nous proposons Espell, une infrastructure pour la virtualisation d'environnement d'éxécution de langages orienté-objets haut-niveau. Espell fournit une infrastructure généraliste pour le contrôle et la manipulation d'environnements d'exécution pour différentes situations. Une représentation de "premier-ordre" de l'environnement d'exécution orienté-objet, que nous appelons "object space", fournit une interface haut-niveau qui permet la manipulation de ces environnements et clarifie le contrat entre le langage et la machine virtuelle. Un hyperviseur est client d'un object space et le manipule soit directement au travers d'objets "miroirs", soit en y exécutant des expressions arbitraires. Nous avons implémenté un prototype de Espell sur Pharo. Nous montrons au travers de notre prototype que cet infrastructure supporte le "bootstrapping" (i.e., l'amorçage ou initialisation circulaire) des langages et le "tailoring"~(i.e., la construction sur-mesure ou "taille") d'environnement d'exécution. En utilisant l'amorçage nous initialisons un langage orienté-objet haut-niveau qui est auto-décrit. Un langage amorcé profite de ses propres abstractions se montrant donc plus simple à étendre. Nous avons amorcé quatre langages qui présentent des modèles de programmation différents e.g., avec des "traits", avec des variables d'instance de 'premier-ordre' ou avec une couche réflexive basé sur le concept de "miroirs". La taille d'environnements d'exécution est une technique qui génère une application spécialisé en extrayant seulement le code utilisé pendant l'exécution d'un programme. Une application taillée inclut seulement les classes et méthodes qu'elle nécessite, et évite que des librairies et des frameworks externes surchargent inutilement la base de code. Notre technique de taille basé sur Espell, que nous appelons "run-fail-grow" (i.e., exécuter-échouer-grandir), créé des versions spécialisées des applications, en sauvant entre un 95% et 99% de la mémoire en comparaison avec la distribution officielle de Pharo
An application runtime is the set of software elements that represent an application during its execution. Application runtimes should be adaptable to different contexts. Advances in computing technology both in hardware and software indeed demand it. For example, on one side we can think on extending a programming language to enhance the developers' productivity. On the other side we can also think on transparently reducing the memory footprint of applications to make them fit in constrained resource scenarios e.g., low networks or limited memory availability. We propose Espell, a virtualization infrastructure for object-oriented high-level languages runtimes. Espell provides a general purpose infrastructure to control and manipulate object-oriented runtimes in different situations. A first-class representation of an object-oriented runtime, namely an "object space", provides a high-level API that allows the manipulation of such runtime and clarifies the contract between the language and the virtual machine. A hypervisor is the client of an object space and manipulates it either directly through mirror objects, either by executing arbitrary expressions into it. We implemented a Espell prototype on Pharo. We show with this prototype that this infrastructure supports language "bootstrapping" and application runtime "tailoring". Using bootstrapping we describe an object-oriented high-level language initialization in terms of itself. A bootstrapped language takes benefit of its own abstractions and shows easier to extend. We bootstrapped four languages presenting different programming models e.g., traits, first-class instance variables and mirror-based reflection. Application runtime tailoring is a technique that generates a specialized application by extracting the elements of a program that are used during execution. A tailored application encompasses only the classes and methods it needs and avoids the code bloat that appears from the usage of third-party libraries and frameworks. Our run-fail-grow tailoring technique based on Espell succeeds in creating specialized versions of applications, saving between a 95% and 99% of memory in comparison with Pharo's official distribution
APA, Harvard, Vancouver, ISO, and other styles
11

Moreno-garcia, Diana. "Modèles, outils et plate-forme d'exécution pour les applications à service dynamiques." Phd thesis, Université de Grenoble, 2013. http://tel.archives-ouvertes.fr/tel-00953126.

Full text
Abstract:
L'essor de l'Internet et l'évolution des dispositifs communicants ont permis l'intégration du monde informatique et du monde réel, ouvrant ainsi la voie à de nouveaux types d'applications, tels que les applications ubiquitaires et pervasives. Ces applications doivent s'exécuter dans des contextes hétérogènes, distribués et ouverts qui sont en constante évolution. Dans de tels contextes, la disponibilité des services et des dispositifs, les préférences et la localisation des utilisateurs peuvent varier à tout moment pendant l'exécution des applications. La variabilité des contextes d'exécution fait que l'exécution d'une application dépend, par exemple, des services disponibles ou des dispositifs accessibles à l'exécution. En conséquence, l'architecture d'une telle application ne peut pas être connue statiquement à la conception, au développement ou au déploiement, ce qui impose de redéfinir ce qu'est une application dynamique : comment la concevoir, la développer, l'exécuter et la gérer à l'exécution. Dans cette thèse, nous proposons une approche dirigée par les modèles pour la conception, le développement et l'exécution d'applications dynamiques. Pour cela, nous avons défini un modèle de composants à services permettant d'introduire des propriétés de dynamisme au sein d'un modèle de composants. Ce modèle permet de définir une application en intention, via un ensemble de propriétés, de contraintes et de préférences de composition. Une application est ainsi spécifiée de façon abstraite ce qui permet de contrôler la composition graduelle de l'application lors de son développement et de son exécution. Notre approche vise à effacer la frontière entre les activités effectuées avant et pendant l'exécution des applications. Pour ce faire, le même modèle et les mêmes mécanismes de composition sont utilisés de la conception jusqu'à l'exécution des applications. A l'exécution, le processus de composition considère, en plus, les services disponibles dans la plate-forme d'exécution permettant la composition opportuniste des applications ; ainsi que la variabilité du contexte d'exécution permettant l'adaptation dynamique des compositions. Nous avons mis en œuvre notre approche via un prototype nommé COMPASS, qui s'appuie sur les plates-formes CADSE pour la réalisation d'environnements logiciels de conception et de développement, et APAM pour la réalisation d'un environnement d'exécution d'applications à services dynamiques.
APA, Harvard, Vancouver, ISO, and other styles
12

Coti, Camille. "Environnements d'exécution pour applications parallèles communiquant par passage de messages pour les systèmes à grande échelle et les grilles de calcul." Phd thesis, Université Paris Sud - Paris XI, 2009. http://tel.archives-ouvertes.fr/tel-00676937.

Full text
Abstract:
L'environnement d'exécution est un composant clé de l'environnement de programmation et d'exécution d'applications parallèles. Il fournit des services aux processus de l'application parallèle. Parmi ces services, les plus fondamentaux sont la mise en relation des processus entre eux et la transmission des signaux et des entrées-sorties. Cette thèse porte sur l'étude des environnements d'exécution à grande échelle et les services rendus à l'application sur des systèmes de grande taille. La première partie étudie les performances de l'environnement d'exécution à grande échelle et propose une approche centrée sur les topologies pour supporter l'application de manière efficace. La seconde partie étudie un rôle supplémentaire rempli par l'environnement d'exécution dans des systèmes constitué d'un grand nombre de composants avec le support de la tolérance aux défaillances. La troisième et la quatrième partie concernent un type particulier de systèmes à grande échelle avec les grilles de calcul. Ces systèmes présentent des particularités spécifiques à l'utilisation de ressources géographiquement distantes et à l'hétérogénéité de ces ressources. Les problématiques de connectivité sur les grilles de calcul et une extension de l'environnement d'exécution conçue pour y faire face sont présentées dans la troisième partie de cette thèse. La quatrième partie présente une méthode de conception d'applications destinées aux grilles de calcul et des exemples d'applications typiques présentant de bonnes performances.
APA, Harvard, Vancouver, ISO, and other styles
13

Moreno, Diana. "Modèles, outils et plate-forme d'exécution pour les applications à services dynamiques." Phd thesis, Université de Grenoble, 2013. http://tel.archives-ouvertes.fr/tel-00875053.

Full text
Abstract:
L'essor de l'Internet et l'évolution des dispositifs communicants ont permis l'intégration du monde informatique et du monde réel, ouvrant ainsi la voie à de nouveaux types d'applications, tels que les applications ubiquitaires et pervasives. Ces applications doivent s'exécuter dans des contextes hétérogènes, distribués et ouverts qui sont en constante évolution. Dans de tels contextes, la disponibilité des services et des dispositifs, les préférences et la localisation des utilisateurs peuvent varier à tout moment pendant l'exécution des applications. La variabilité des contextes d'exécution fait que l'exécution d'une application dépend, par exemple, des services disponibles ou des dispositifs accessibles à l'exécution. En conséquence, l'architecture d'une telle application ne peut pas être connue statiquement à la conception, au développement ou au déploiement, ce qui impose de redéfinir ce qu'est une application dynamique : comment la concevoir, la développer, l'exécuter et la gérer à l'exécution. Dans cette thèse, nous proposons une approche dirigée par les modèles pour la conception, le développement et l'exécution d'applications dynamiques. Pour cela, nous avons défini un modèle de composants à services permettant d'introduire des propriétés de dynamisme au sein d'un modèle de composants. Ce modèle permet de définir une application en intention, par un ensemble de propriétés, de contraintes et de préférences de composition. Une application est ainsi spécifiée de façon abstraite ce qui permet de contrôler la composition graduelle de l'application lors de son développement et de son exécution. Notre approche vise à effacer la frontière entre les activités effectuées avant et pendant l'exécution des applications. Pour ce faire, le même modèle et les mêmes mécanismes de composition sont utilisés de la conception jusqu'à l'exécution des applications. A l'exécution, le processus de composition considère, en plus, les services disponibles dans la plate-forme d'exécution permettant la composition opportuniste des applications ; ainsi que la variabilité du contexte d'exécution permettant l'adaptation dynamique des compositions. Nous avons mis en oeuvre notre approche à travers le prototype nommé COMPASS, qui s'appuie sur les plates-formes CADSE pour la réalisation d'environnements logiciels de conception et de développement, et APAM pour la réalisation d'un environnement d'exécution d'applications à services dynamiques.
APA, Harvard, Vancouver, ISO, and other styles
14

Ravi, Mondi. "Confiance et incertitude dans les environnements distribués : application à la gestion des donnéeset de la qualité des sources de données dans les systèmes M2M (Machine to Machine)." Thesis, Université Grenoble Alpes (ComUE), 2016. http://www.theses.fr/2016GREAM090/document.

Full text
Abstract:
La confiance et l'incertitude sont deux aspects importants des systèmes distribués. Par exemple, de multiples sources d'information peuvent fournir le même type d'information. Cela pose le problème de sélectionner la source la plus fiable et de résoudre l'incohérence dans l'information disponible. Gérer de front la confiance et l'incertitude constitue un problème complexe et nous développons à travers cette thèse, une solution pour y répondre. La confiance et l'incertitude sont intrinsèquement liés. La confiance concerne principalement les sources d'information alors que l'incertitude est une caractéristique de l'information elle-même. En l'absence de mesures de confiance et d'incertitude, un système doit généralement faire face à des problèmes tels que l'incohérence et l'incertitude. Pour aborder ce point, nous émettons l'hypothèse que les sources dont les niveaux de confiance sont élevés produiront de l'information plus fiable que les sources dont les niveaux de confiance sont inférieurs. Nous utilisons ensuite les mesures de confiance des sources pour quantifier l'incertitude dans l'information et ainsi obtenir des conclusions de plus haut niveau avec plus de certitude.Une tendance générale dans les systèmes distribués modernes consiste à intégrer des capacités de raisonnement dans les composants pour les rendre intelligents et autonomes. Nous modélisons ces composants comme des agents d'un système multi-agents. Les principales sources d'information de ces agents sont les autres agents, et ces derniers peuvent posséder des niveaux de confiance différents. De plus, l'information entrante et les croyances qui en découlent sont associées à un degré d'incertitude. Par conséquent, les agents sont confrontés à un double problème: celui de la gestion de la confiance sur les sources et celui de la présence de l'incertitude dans l'information. Nous illustrons cela avec trois domaines d'application: (i) la communauté intelligente, (ii) la collecte des déchets dans une ville intelligente, et (iii) les facilitateurs pour les systèmes de l'internet du futur (FIWARE - le projet européen n° 285248, qui a motivé la recherche sur nos travaux). La solution que nous proposons consiste à modéliser les composants de ces domaines comme des agents intelligents qui incluent un module de gestion de la confiance, un moteur d'inférence et un système de révision des croyances. Nous montrons que cet ensemble d'éléments peut aider les agents à gérer la confiance aux autres sources, à quantifier l'incertitude dans l'information et à l'utiliser pour aboutir à certaines conclusions de plus haut niveau. Nous évaluons finalement notre approche en utilisant des données à la fois simulées et réelles relatives aux différents domaines d'application
Trust and uncertainty are two important aspects of many distributed systems. For example, multiple sources of information can be available for the same type of information. This poses the problem to select the best source that can produce the most certain information and to resolve incoherence amongst the available information. Managing trust and uncertainty together forms a complex problem and through this thesis we develop a solution to this. Trust and uncertainty have an intrinsic relationship. Trust is primarily related to sources of information while uncertainty is a characteristic of the information itself. In the absence of trust and uncertainty measures, a system generally suffers from problems like incoherence and uncertainty. To improve on this, we hypothesize that the sources with higher trust levels will produce more certain information than those with lower trust values. We then use the trust measures of the information sources to quantify uncertainty in the information and thereby infer high level conclusions with greater certainty.A general trend in the modern distributed systems is to embed reasoning capabilities in the end devices to make them smart and autonomous. We model these end devices as agents of a Multi Agent System. Major sources of beliefs for such agents are external information sources that can possess varying trust levels. Moreover, the incoming information and beliefs are associated with a degree of uncertainty. Hence, the agents face two-fold problems of managing trust on sources and presence of uncertainty in the information. We illustrate this with three application domains: (i) The intelligent community, (ii) Smart city garbage collection, and (iii) FIWARE : a European project about the Future Internet that motivated the research on this topic. Our solution to the problem involves modelling the devices (or entities) of these domains as intelligent agents that comprise a trust management module, an inference engine and a belief revision system. We show that this set of components can help agents to manage trust on the other sources and quantify uncertainty in the information and then use this to infer more certain high level conclusions. We finally assess our approach using simulated and real data pertaining to the different application domains
APA, Harvard, Vancouver, ISO, and other styles
15

Fakhfakh, Nizar. "Détection et localisation tridimensionnelle par stéréovision d'objets en mouvement dans des environnements complexes : application aux passages à niveau." Phd thesis, Ecole Centrale de Lille, 2011. http://tel.archives-ouvertes.fr/tel-00618031.

Full text
Abstract:
La sécurité des personnes et des équipements est un élément capital dans le domaine des transports routiers et ferroviaires. Depuis quelques années, les Passages à Niveau (PN) ont fait l'objet de davantage d'attention afin d'accroître la sécurité des usagers sur cette portion route/rail considérée comme dangereuse. Nous proposons dans cette thèse un système de vision stéréoscopique pour la détection automatique des situations dangereuses. Un tel système permet la détection et la localisation d'obstacles sur ou autour du PN. Le système de vision proposé est composé de deux caméras supervisant la zone de croisement. Nous avons développé des algorithmes permettant à la fois la détection d'objets, tels que des piétons ou des véhicules, et la localisation 3D de ces derniers. L'algorithme de détection d'obstacles se base sur l'Analyse en Composantes Indépendantes et la propagation de croyance spatio-temporelle. L'algorithme de localisation tridimensionnelle exploite les avantages des méthodes locales et globales, et est composé de trois étapes : la première consiste à estimer une carte de disparité à partir d'une fonction de vraisemblance basée sur les méthodes locales. La deuxième étape permet d'identifier les pixels bien mis en correspondance ayant des mesures de confiances élevées. Ce sous-ensemble de pixels est le point de départ de la troisième étape qui consiste à ré-estimer les disparités du reste des pixels par propagation de croyance sélective. Le mouvement est introduit comme une contrainte dans l'algorithme de localisation 3D permettant l'amélioration de la précision de localisation et l'accélération du temps de traitement.
APA, Harvard, Vancouver, ISO, and other styles
16

Lardaud-Clerc, Caroline. "Le changement de comportement du créancier en cours d'exécution du contrat. Étude de droit français et anglais." Thesis, Lyon 3, 2015. http://www.theses.fr/2015LYO30060.

Full text
Abstract:
Le changement de comportement correspond à une situation dans laquelle, pendant l’exécution du contrat, le créancier adopte une attitude contraire au contenu de l’accord originel, pour ensuite exiger l’application de ce dernier. Confronté aux règles classiques du droit des contrats (intangibilité, consideration), cette volte-face ne devrait avoir aucune force juridique. Malgré cela, en interdisant au créancier de réclamer l’exécution de l’accord initial, les juges français et anglais introduisent cette situation dans la sphère juridique.Comme l’imprévision, le changement de comportement bouleverse l’exécution du contrat ; comme la bonne foi, il est fondé sur la morale ; comme l’abus de droit, il sanctionne l’inconstance ; comme l’apparence, il est à la frontière entre le fait et le droit. Il se singularise pourtant, car il ne se confond avec aucune autre insitution juridique. Par ailleurs distinct de la confiance légitime et de l’interdiction de se contredire auxquelles il est rattaché, il est en quête d’un régime juridique propre. Une construction s’impose alors. Elle est facilitée par le miroir de la comparaison des droits français et anglais.Le changement de comportement révèle une renonciation du créancier à la créance, rendue possible par les prérogatives contractuelles qu’il tient, elles-mêmes autorisées par sa propriété sur la créance ou le renforcement de sa titularité. L’efficacité de cette appréhension flexible du contenu contractuel requiert cependant l’anéantissement d’éventuels remparts procéduraux : l’interdiction du changement ne doit alors plus seulement être un moyen de défense contre la contradiction, mais exprimer un comportement juridiquement contraignant
The change of behaviour refers to a situation in which, during the performance stage of the contract, the promisor behaves in a manner which is contrary to the existing contractual rights, but later neverthless insists on their application. Faced with the classic rules of contract law (sanctity of contracts, consideration), this volte-face should have no legal force. Yet, by prohibiting the promisor’s demand to perform the original agreement, French and English judges nevertheless introduce this situation in the law of contracts.Like frustration, the change of behaviour disrupts the performance of the contract ; like good faith and Equity, it is based on morality ; like an abuse of right, it punishes inconsistency ; like the theory of « apparence », it is in between facts and law. In spite of this, the change of behaviour stands out ; as it does not share the exact same scope as the expectations theory or the inconsistent behaviour theory, no other legal theory can wholly translate it into the law of the contracts. The change of behaviour therefore needs its proper legal framework which must consequently be found. The search is helped by the prism of comparative law, between French and Englis laws.The change of behaviour reveals a waiver of the promisor’s debt. The waiver is made possible by the contractual prerogatives he holds, prerogatives which are justified by the ownership of the debt. The efficiency of this flexible understanding of contractual content requires the obliteration of any litigation shield. As a consequence, forbidding the change should not only be seen as a defense against inconsistency, but should highlight a legally binding behaviour
APA, Harvard, Vancouver, ISO, and other styles
17

Arrouye, Yves. "Environnements de visualisation pour l'évaluation des performances des systèmes parallèles : étude, conception et réalisation." Phd thesis, Grenoble INPG, 1995. http://tel.archives-ouvertes.fr/tel-00005025.

Full text
Abstract:
Les applications parallèles sont de plus en plus complexes et, même si les environnements de développement s'améliorent, de plus en plus difficiles à mettre au point que ce soit du point de vue de leur correction ou, dans le cadre qui nous intéresse, de leurs performances. Un outil intéressant pour la mise au point des performances d'une application est la visualisation de son exécution. Le travail présenté dans ce mémoire porte sur l'étude, la conception et la réalisation d'un environnement interactif extensible de visualisation pour l'évaluation de performance de systèmes parallèles. Un tel environnement permet de reconstituer le comportement d'une application d'après des traces d'exécution et facilite, par le calcul et la présentation d'indices de performances, la compréhension de son fonctionnement et la détection de ses problèmes de performance. Nous commençons par préciser les concepts importants dans un environnement de visualisation et présentons ensuite l'état de l'art en la matière. Nous décrivons ensuite la conception et la réalisation de l'environnement Scope. Cet environnement est validé par rapport aux objectifs initiaux et son utilité est démontrée par l'étude de sessions d'évaluation de performance d'applications concrètes.
APA, Harvard, Vancouver, ISO, and other styles
18

Fakhfakh, Nizar. "Détection et localisation tridimensionnelle par stéréovision d’objets en mouvement dans des environnements complexes : application aux passages à niveau." Thesis, Ecole centrale de Lille, 2011. http://www.theses.fr/2011ECLI0005/document.

Full text
Abstract:
La sécurité des personnes et des équipements est un élément capital dans le domaine des transports routiers et ferroviaires. Depuis quelques années, les Passages à Niveau (PN) ont fait l’objet de davantage d'attention afin d'accroître la sécurité des usagers sur cette portion route/rail considérée comme dangereuse. Nous proposons dans cette thèse un système de vision stéréoscopique pour la détection automatique des situations dangereuses. Un tel système permet la détection et la localisation d'obstacles sur ou autour du PN. Le système de vision proposé est composé de deux caméras supervisant la zone de croisement. Nous avons développé des algorithmes permettant à la fois la détection d'objets, tels que des piétons ou des véhicules, et la localisation 3D de ces derniers. L'algorithme de détection d'obstacles se base sur l'Analyse en Composantes Indépendantes et la propagation de croyance spatio-temporelle. L'algorithme de localisation tridimensionnelle exploite les avantages des méthodes locales et globales, et est composé de trois étapes : la première consiste à estimer une carte de disparité à partir d'une fonction de vraisemblance basée sur les méthodes locales. La deuxième étape permet d'identifier les pixels bien mis en correspondance ayant des mesures de confiances élevées. Ce sous-ensemble de pixels est le point de départ de la troisième étape qui consiste à ré-estimer les disparités du reste des pixels par propagation de croyance sélective. Le mouvement est introduit comme une contrainte dans l'algorithme de localisation 3D permettant l'amélioration de la précision de localisation et l'accélération du temps de traitement
Within the past years, railways undertakings became interested in the assessment of Level Crossings (LC) safety. We propose in this thesis an Automatic Video-Surveillance system (AVS) at LC for an automatic detection of specific events. The system allows automatically detecting and 3D localizing the presence of one or more obstacles which are motionless at the level crossing. Our research aims at developing an AVS using the passive stereo vision principles. The proposed imaging system uses two cameras to detect and localize any kind of object lying on a railway level crossing. The cameras are placed so that the dangerous zones are well (fully) monitored. The system supervises and estimates automatically the critical situations by detecting objects in the hazardous zone defined as the crossing zone of a railway line by a road or path. The AVS system is used to monitor dynamic scenes where interactions take place among objects of interest (people or vehicles). After a classical image grabbing and digitizing step, the processing is composed of the two following modules: moving and stationary objects detection and 3-D localization. The developed stereo matching algorithm stems from an inference principle based on belief propagation and energy minimization. It takes into account the advantages of local methods for reducing the complexity of the inference step achieved by the belief propagation technique which leads to an improvement in the quality of results. The motion detection module is considered as a constraint which allows improving and speeding up the 3D localization algorithm
APA, Harvard, Vancouver, ISO, and other styles
19

Bisschop, Hervé de. "Se former à diriger en situations de formations simulées de haute intensité : une activité de présence à soi et à autrui : une approche par l’activité : le cas des stages d’aguerrissement suivis par les élèves-officiers de l’École Militaire InterArmes." Thesis, Bourgogne Franche-Comté, 2020. http://www.theses.fr/2020UBFCH011.

Full text
Abstract:
Cette recherche s’intéresse à l’activité « apprendre à diriger » à partir de l’étude d’une formation entraînant des professionnels à savoir agir face à l’imprévu, l’inattendu, l’incertain, voir l’insoutenable.À partir des théories de l’activité et plus spécifiquement du cadre théorique et méthodologique du cours d’action (Theureau 2004, 2006, 2009), elle tente de saisir, décrire, comprendre et expliquer : (i) comment s’organise la structure de cette activité, (ii) en quoi les différentes dimensions somatiques, affectives et cognitives participent aux apprentissages des acteurs, et enfin (iii) quelles sont les différentes catégories de situations génératrices de perturbations.Nous y soutenons la thèse qu’apprendre à diriger au sein de dispositifs de formations simulés de haute intensité conduit les individus, par une mise à l’épreuve, à déployer des apprentissages par corps, qui participent à la transformation de leur manière d’être au monde dans le sens d’une vigilance à soi et aux autres, qui n’est autre qu’une coprésence à ce qui est et advient
This PhD dissertation examines the activity “learning how to command” thanks to a study of professionals undergoing training to learn how to face unpredictable, unexpected, uncertain, and even unbearable situations.This dissertation relies on theories of activity and more specifically on theories and methodologies of action course (Theureau 2004, 2006, 2009), and aims at grasping, describing, understanding, and explaining: (i) the structure of that activity, (ii) how the different somatic, affective and cognitive dimensions participate in the learning processes of participants, and finally (iii), what the different categories ofsituations generating perturbations are.This PhD dissertation argues that learning how to command within high-intensity simulated training environments lead individuals to experientally deploy learning activities involving their body. In turn, that bodily learning participates to the transformation of the individuals’ being in the world and to the development of both self and other-oriented forms of vigilance. Such a vigilance can only be described as a co-presence to what takes and will take place
APA, Harvard, Vancouver, ISO, and other styles
20

Guinand, Frédéric. "Ordonnancement avec communications pour systèmes multiprocesseurs dans divers modèles d'exécution." Phd thesis, 1995. http://tel.archives-ouvertes.fr/tel-00005049.

Full text
Abstract:
En quelques dizaines d'années, l'informatique a vu naître et se développer des machines fonctionnant avec plusieurs processeurs. Les difficultés techniques rencontrées pour la conception de ces ordinateurs ont été surmontées et l'un des défis majeur d'aujourd'hui est de fournir une plateforme pour la programmation parallèle. Ce travail de thèse s'inscrit dans le cadre du projet IMAG APACHE qui a pour but la conception d'un tel environnement. Le modèle de graphes que nous manipulons est un graphe de tâches orienté sans cycle. Le processus consistant à paralléliser une application est découpé en trois phases principales, avec l'ordonnancement et le placement des différentes parties de l'application comme étape centrale. Dans ce contexte, nous avons concentrés nos efforts sur la recherche de stratégies d'ordonnancement présentant de réelles qualités de robustesse et d'efficacité pour des graphes de différentes granularités, et pour des ensembles d'hypothèses d'exécution différents. A partir d'un algorithme produisant des ordonnancements optimaux dans le cas de graphes à structure arborescente formés de tàches de durées unitaires et de communications unitaires, nous avons montré qu'il était possible d'obtenir des ordonnancements, dont l'écart par rapport à l'optimal est borné, pour des arbres de granularité différente. Nous avons montré également que ce même algorithme permettait d'obtenir dans certains cas des ordonnancements optimaux pour un modèle d'exécution totalement différent de celui pour lequel il avait été originellement conçu. Cette étude sur deux processeurs a été mené pour un nombre supérieur de processeurs identiques et pour deux processeurs uniformes. Enfin, une partie de ce travail est dédiée à la recherche de stratégies d'ordonnancement pour des graphes générés par l'environnement Athapascan (projet APACHE) qui présentent la particularité de permettre l'adaptation de la granularité en fonction de la machine cible.
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography