Dissertations / Theses on the topic 'Évaluation de la architecture'

To see the other types of publications on this topic, follow the link: Évaluation de la architecture.

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 dissertations / theses for your research on the topic 'Évaluation de la architecture.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Tlais, Mazen. "Architecture sans fil discontinue : problématiques, conception et évaluation." Rennes 1, 2008. ftp://ftp.irisa.fr/techreports/theses/2008/tlais.pdf.

Full text
Abstract:
The progress of wireless communication technologies allows the implementation of high rate applications. Users want to use their devices, equipped with a wireless interface, to watch videos and capture images and video clips using their digital cameras. Indeed, these high rate applications can quickly consume the available radio bandwidth. In this context, classical mobile networks provide a throughput which is expensive in terms of costs and is not, in most cases, sufficient to serve a large number of users. The purpose of this thesis is to define a mobile network that provides a high data rate at a low cost. In particular, it must allow a large number of users to exchange high data amounts with application servers without decreasing the quality of service. This contribution is constituted of three parts. In the first one, we propose an architecture which is able to provide high data rates at low costs. This architecture is based on interconnected wireless networks and discontinuous coverage. In the second part, the effectiveness of this architecture is presented, which ensures an efficient data delivery in the down-link and the up-link. In the third part, the challenges posed by a large scale deployment of the considered network are finally described together with the solutions found for the architecture
Dans le domaine des réseaux mobiles, les progrès en matière de technologie de communication sans fil permettent d'envisager la mise en oeuvre d'applications réclamant des débits importants. Le plus souvent, les utilisateurs sont maintenant équipés de terminaux munis d'interface de communication sans fil et de fonctions de captures numériques (comme un appareil photo par exemple), avec lesquels ils souhaitent pouvoir regarder des films, ou bien encore capturer et stocker des photos et des séquences vidéo. De telles applications peuvent rapidement consommer la bande passante disponible dans l'infrastructure de communication. Dans ce contexte, les débits fournis par les réseaux mobiles actuels, en plus d'être d'un coût élevé, ne sont pas, le plus souvent, suffisants pour servir un grand nombre d'utilisateurs. L'objectif de cette thèse est de proposer et d'évaluer une architecture de réseau mobile offrant un haut débit, et ce pour un faible coût de déploiement. Cette architecture doit permettre à une densité élevée d'utilisateurs d'échanger des quantités importantes de données avec des serveurs applicatifs, et ce sans dégrader la qualité de service. Notre contribution repose sur trois parties. Dans un premier temps, nous proposons une architecture en mesure de fournir des transferts haut débit, pour des faibles coûts de déploiement. Cette architecture s'appuie sur une interconnexion de cellules radio de tailles réduites et n'offrant pas une couverture continue. On parle alors de réseau à couverture discontinue. Dans un deuxième temps, nous validons le fonctionnement de cette architecture pour les flux descendants et montants. Dans un troisième temps, nous décrivons les problèmes posés par un déploiement grande échelle du réseau proposé, et nous présentons des solutions adaptées
APA, Harvard, Vancouver, ISO, and other styles
2

Dumas, Sophie. "Évaluation d'architectures à objets distribués." Versailles-St Quentin en Yvelines, 1998. http://www.theses.fr/1998VERS0011.

Full text
Abstract:
Cette thèse aborde le problème de l'évaluation de performances d'architectures à objets distribués, architectures devenues incontournables dans le développement d'un système d'information distribué (SID). Dans un monde en constante évolution, industriels et chercheurs définissent des standards et des technologies permettant aux différents composants d'un SID de communiquer. Parmi les candidats émergents de ces technologies dites médiatrices, figurent l'architecture CORBA (common object request broker architecture) de l'OMG (object management group) et DCOM (distributed component object model), la solution propriétaire de Microsoft. L'émergence de ces architectures nécessite des prévisions de performances efficaces permettant d'optimiser un nouveau type d'applications. Cette thèse propose une évaluation de ces architectures basée sur la modélisation de corba/orbix, dcom et ole-db (ole-data bases). Orbix est aujourd'hui l'un des médiateurs les plus utilisés et dcom est une solution incontournable dans le monde bureautique. Ole-db est l'api qui vient en complément à ces deux technologies afin d'avoir une architecture dite trois-strates. Un modèle générique pour CORBA et DCOM ainsi qu'un modèle pour OLE-DB sont spécifiés et implémentés. Ce travail a été realisé au sein du projet esprit hélios et a abouti à l'extension de SWAP, l'outil d'évaluation de performances développé par IFATEC.
APA, Harvard, Vancouver, ISO, and other styles
3

Rubini, Pascal. "Définition fonctionnelle, évaluation et programmation d'une architecture massivement parallèle." Phd thesis, Grenoble INPG, 1992. http://tel.archives-ouvertes.fr/tel-00342041.

Full text
Abstract:
L'architecture massivement parallèle étudiée dans cette thèse tente d'associer un fonctionnement de type mimd a des unités de calcul de petite taille, contrairement a ce qui se fait traditionnellement, afin de rendre possible la réalisation de machines de très grande échelle. Elle se situe dans la continuité des machines de type réseau cellulaire étudiées au sein du groupe circuits du LGI (asynchrones, topologie en grille 2d, communication par passage de message) mais dans une optique non dédiée. Cette vocation généraliste pose le probleme du dimensionnement relatif des éléments (processeur, routeur, mémoire) qui doit concilier économie et fonctionnalité. A la lumière d'une approche expérimentale par simulations, le mécanisme de transfert de message parallèle utilise jusqu'alors apparait comme surdimensionne et trop exigeant d'un point de vue connectique. Des solutions plus réalistes (wormhole multiplexe, bus intra-chip) sont présentées et montrées comme suffisamment puissantes. L'étude d'un certain nombre de programmes d'exemples a permis d'une part d'améliorer de façon significative le jeu d'instructions et de valider un ensemble de primitives de communication simples, d'autre part de montrer que l'implémentation d'algorithmes de natures très variées était possible
APA, Harvard, Vancouver, ISO, and other styles
4

Mallet, Frédéric. "Modélisation et évaluation de performances d'architectures matérielles numériques." Nice, 2000. http://www.theses.fr/2000NICE5481.

Full text
Abstract:
SEP est une méthode incrémentale orientée-composant de Simulation et d'Evaluation de Performances d'architectures matérielles numériques. Les modèles d'architectures sont construits par un agencement structurel de composants et de connecteurs suivant des règles de composition. L'évaluation de performances d'une architecture par rapport à une application est effectuée dans un environnement de simulation à événements discrets adapté. Le modèle construit peut être utilisé comme référence pour la mise au point de code synthétizable [sic]. Dans une première partie, nous définissons un modèle générique décrit en UML (Unified Modelling Language) qui permet une modélisation unifiée d'architectures hétérogènes et la construction d'un environnement graphique d'aide à la conception et non spécifique d'une architecture. Le comportement des composants élémentaires à partir de méthodes Java est construit par une spécification active. L'utilisation de l'approche par composants autonomes rend possible la mise en place de nombreux mécanismes intéressants pour améliorer la réutilisation et la lisibilité des modèles, pour modéliser le jeu d'instructions, pour intégrer des modèles Esterel. Dans une deuxième partie, nous montrons comment notre modèle permet l'intégration de techniques de validation dans l'environnement de simulation. En particulier, nous validons la composition des composants et les services de haut niveau construits. Un mécanisme de liaison dynamique évolué est alors mis en place pour valider fonctionnellement les modèles.
APA, Harvard, Vancouver, ISO, and other styles
5

He, Peng. "Conception et évaluation des systèmes logiciels de classifications de paquets haute-performance." Thesis, Université Grenoble Alpes (ComUE), 2015. http://www.theses.fr/2015GREAA007/document.

Full text
Abstract:
La classification de paquets consiste à vérifier par rapport à un ensemble de règles prédéfinies le contenu des entêtes de paquets. Cette vérification permet d'appliquer à chaque paquet l'action adaptée en fonction de règles qu'il valide. La classification de paquets étant un élément clé du plan de données des équipements de traitements de paquets, elle est largement utilisée dans de nombreuses applications et services réseaux, comme les pare-feu, l'équilibrage de charge, les réseaux privés virtuels, etc. Au vu de son importance, la classification de paquet a été intensivement étudiée durant les vingt dernières années. La solution classique à ce problème a été l'utilisation de matériel dédiés et conçus pour cet usage. Néanmoins, l'émergence des centres de données, des réseaux définis en logiciel nécessite une flexibilité et un passage à l'échelle que les applications classiques ne nécessitaient pas. Afin de relever ces défis des plateformes de traitement multi-cœurs sont de plus en plus utilisés. Cette thèse étudie la classification de paquets suivant trois dimensions : la conception des algorithmes, les propriétés des règles de classification et la mise en place logicielle, matérielle et son optimisation. La thèse commence, par faire une rétrospective sur les diverses algorithmes fondés sur des arbres de décision développés pour résoudre le problème de classification de paquets. Nous proposons un cadre générique permettant de classifier ces différentes approches et de les décomposer en une séquence de « méta-méthodes ». Ce cadre nous a permis de monter la relation profonde qui existe ces différentes méthodes et en combinant de façon différentes celle-ci de construire deux nouveaux algorithmes de classification : HyperSplit-op et HiCuts-op. Nous montrons que ces deux algorithmes atteignent des gains de 2~200x en terme de taille de mémoire et 10%~30% moins d'accès mémoire que les meilleurs algorithmes existant. Ce cadre générique est obtenu grâce à l'analyse de la structure des ensembles de règles utilisés pour la classification des paquets. Cette analyse a permis de constater qu'une « couverture uniforme » dans l'ensemble de règle avait un impact significatif sur la vitesse de classification ainsi que l'existence de « structures orthogonales » avait un impact important sur la taille de la mémoire. Cette analyse nous a ainsi permis de développer un modèle de consommation mémoire qui permet de découper les ensembles de règles afin d'en construire les arbres de décision. Ce découpage permet jusqu'à un facteur de 2.9 d'augmentation de la vitesse de classification avec une réduction jusqu'à 10x de la mémoire occupé. La classification par ensemble de règle simple n'est pas le seul cas de classification de paquets. La recherche d'adresse IP par préfixe le plus long fourni un autre traitement de paquet stratégique à mettre en œuvre. Une troisième partie de cette thèse c'est donc intéressé à ce problème et plus particulièrement sur l'interaction entre la charge de mise à jour et la vitesse de classification. Nous avons observé que la mise à jour des préfixes longs demande plus d'accès mémoire que celle des préfixes court dans les structures de données d'arbre de champs de bits alors que l'inverse est vrai dans la structure de données DIR-24-8. En combinant ces deux approches, nous avons propose un algorithme hybride SplitLookup, qui nécessite deux ordres de grandeurs moins d'accès mémoire quand il met à jour les préfixes courts tout en gardant des performances de recherche de préfixe proche du DIR-24-8. Tous les algorithmes étudiés, conçus et implémentés dans cette thèse ont été optimisés à partir de nouvelles structures de données pour s'exécuter sur des plateformes multi-cœurs. Ainsi nous obtenons des débits de recherche de préfixe atteignant 40 Gbps sur une plateforme TILEPro64
Packet classification consists of matching packet headers against a set of pre-defined rules, and performing the action(s) associated with the matched rule(s). As a key technology in the data-plane of network devices, packet classification has been widely deployed in many network applications and services, such as firewalling, load balancing, VPNs etc. Packet classification has been extensively studied in the past two decades. Traditional packet classification methods are usually based on specific hardware. With the development of data center networking, software-defined networking, and application-aware networking technology, packet classification methods based on multi/many processor platform are becoming a new research interest. In this dissertation, packet classification has been studied mainly in three aspects: algorithm design framework, rule-set features analysis and algorithm implementation and optimization. In the dissertation, we review multiple proposed algorithms and present a decision tree based algorithm design framework. The framework decomposes various existing packet classification algorithms into a combination of different types of “meta-methods”, revealing the connection between different algorithms. Based on this framework, we combine different “meta-methods” from different algorithms, and propose two new algorithms, HyperSplit-op and HiCuts-op. The experiment results show that HiCuts-op achieves 2~20x less memory size, and 10% less memory accesses than HiCuts, while HyperSplit-op achieves 2~200x less memory size, and 10%~30% less memory accesses than HyperSplit. We also explore the connections between the rule-set features and the performance of various algorithms. We find that the “coverage uniformity” of the rule-set has a significant impact on the classification speed, and the size of “orthogonal structure” rules usually determines the memory size of algorithms. Based on these two observations, we propose a memory consumption model and a quantified method for coverage uniformity. Using the two tools, we propose a new multi-decision tree algorithm, SmartSplit and an algorithm policy framework, AutoPC. Compared to EffiCuts algorithm, SmartSplit achieves around 2.9x speedup and up to 10x memory size reduction. For a given rule-set, AutoPC can automatically recommend a “right” algorithm for the rule-set. Compared to using a single algorithm on all the rulesets, AutoPC achieves in average 3.8 times faster. We also analyze the connection between prefix length and the update overhead for IP lookup algorithms. We observe that long prefixes will always result in more memory accesses using Tree Bitmap algorithm while short prefixes will always result in large update overhead in DIR-24-8. Through combining two algorithms, a hybrid algorithm, SplitLookup, is proposed to reduce the update overhead. Experimental results show that, the hybrid algorithm achieves 2 orders of magnitudes less in memory accesses when performing short prefixes updating, but its lookup speed with DIR-24-8 is close. In the dissertation, we implement and optimize multiple algorithms on the multi/many core platform. For IP lookup, we implement two typical algorithms: DIR-24-8 and Tree Bitmap, and present several optimization tricks for these two algorithms. For multi-dimensional packet classification, we have implemented HyperCuts/HiCuts and the variants of these two algorithms, such as Adaptive Binary Cuttings, EffiCuts, HiCuts-op and HyperSplit-op. The SplitLookup algorithm has achieved up to 40Gbps throughput on TILEPro64 many-core processor. The HiCuts-op and HyperSplit-op have achieved up to 10 to 20Gbps throughput on a single core of Intel processors. In general, our study reveals the connections between the algorithmic tricks and rule-set features. Results in this dissertation provide insight for new algorithm design and the guidelines for efficient algorithm implementation
APA, Harvard, Vancouver, ISO, and other styles
6

Pageau, Normand. "Évaluation et prédiction de performance de problèmes irréguliers sur une architecture parallèle." Thesis, National Library of Canada = Bibliothèque nationale du Canada, 1999. http://www.collectionscanada.ca/obj/s4/f2/dsk1/tape7/PQDD_0009/MQ41976.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
7

Houeix, Pierre. "Evaluation de performances d'une architecture parallèle pour le traitement d'images." Grenoble INPG, 1988. http://tel.archives-ouvertes.fr/tel-00331497.

Full text
Abstract:
Une architecture parallèle pour le traitement d'images, articulée autour d'un bus rapide, est étudiée en vue d'effectuer des rectifications géométriques d'images satellites de grande dimension. Une parallélisation de l'algorithme est proposée en tenant compte d'une optimisation possible du découpage de l'image
APA, Harvard, Vancouver, ISO, and other styles
8

Lecuivre, Jérôme. "Évaluation d'architectures temps réel réparties : application à CCE." Vandoeuvre-les-Nancy, INPL, 1996. http://www.theses.fr/1996INPL093N.

Full text
Abstract:
Notre problématique de recherche au sens large consiste à fournir des outils et des modèles aidant à la conception d'applications temps réel distribuées. Dans le cadre général de la conception, il est important, primordial même, de prendre en compte le plus tôt possible, dans le cycle de vie du système, les paramètres de performance tels que temps de réponse du système ou taux d'occupation des ressources. L’évaluation de performances d'un environnement temps réel distribué est une tache délicate: bien qu'une méthodologie générale existe, chaque étude est particulière. Comment poser proprement le problème, comment le modéliser, quels sont les critères de performance les plus appropriés, quelles sont les bonnes hypothèses, comment mesurer la charge de travail, peut-on se fier aux résultats du modèle ? Le travail que nous avons entrepris fournit des éléments de réponse à ces questions. Pour mener à bien nos travaux, nous avons utilisé et illustré la méthodologie définie par Jain. Nous avons aussi appliqué à la modélisation de profils de communication les règles de modélisation orientées objet définies par Nachef. Nous confrontons les résultats fournis par le modèle aux résultats analytiques ou aux mesures réelles obtenues par expérimentation sur le système pour différents types de machines et de protocoles de communication. Nous proposons une structure d'accueil afin de faciliter la construction de modèles de profils de communication. Notre but est de déterminer si les contraintes de temps de l'application peuvent être respectées par la qualité de service fournie par le profil de communication choisi. Notre approche a été appliquée à la plate-forme temps réel distribuée Cime Computing Environment (CCE) dont nous décrivons les services et la qualité de service associée. Nous proposons plusieurs mécanismes protocolaires permettant de faciliter la gestion des contraintes de temps
APA, Harvard, Vancouver, ISO, and other styles
9

Bernon, Carole. "Conception et évaluation d'une plate-forme pour le placement dynamique de processus communicants." Toulouse 3, 1995. http://www.theses.fr/1995TOU30146.

Full text
Abstract:
Le placement de processus et la repartition de charge sont des problemes importants dans le domaine des systemes repartis. Les resoudre permet d'optimiser l'utilisation des ressources disponibles et d'accelerer le traitement des applications paralleles qui s'y deroulent. L'objectif du travail presente dans cette these est de proposer une strategie de placement des processus constituant une application parallele sur un ensemble de stations de travail reliees entre elles par un reseau de communication. Affecter un site d'execution a chacun des processus composant une application revient a proposer un algorithme de placement adequat. Apres avoir etudie les travaux effectues dans ce domaine, nous proposons de realiser un placement dynamique totalement decentralise en prenant en compte l'utilisation des differents processeurs et la communication entre processus. Pour mettre en uvre la decentralisation de l'algorithme, nous avons choisi d'utiliser le concept d'agent issu de l'intelligence artificielle distribuee. A chaque site est associe un agent systeme (as). Cet as gere le taux d'utilisation de son site de maniere a ce qu'il ne soit pas surcharge de travail. Toute application possede un agent application (aa) sur chacun des sites pouvant executer l'un de ses processus. Un aa cherche a reduire le cout des communications au sein de l'application a laquelle il est lie. Afin de realiser un placement en tenant compte de ces deux facteurs, les deux types d'agents cooperent et negocient. Pour tester la performance de l'algorithme, nous avons construit un prototype reparti permettant d'appliquer les politiques precedemment decrites. Les resultats obtenus montrent que l'algorithme de placement propose peut diminuer le temps de reponse des applications s'executant dans le reseau
APA, Harvard, Vancouver, ISO, and other styles
10

Cantin, François. "Évaluation de la qualité lumineuse d'un environnement de travail éclairé naturellement." Thesis, Université Laval, 2008. http://www.theses.ulaval.ca/2008/25625/25625.pdf.

Full text
Abstract:
L’objectif de la recherche consiste à élaborer une méthodologie permettant l’évaluation globale de la qualité lumineuse d’un environnement de travail. La méthode proposée repose sur le calcul de plusieurs indicateurs de performance connus afin de qualifier les espaces en fonction de quatre paramètres, soit l’éclairement, la distribution (variabilité) lumineuse, les risques d’éblouissement et la directivité de l’éclairage. Le calcul des indicateurs a été effectué par simulation informatisée à l’aide du logiciel Radiance. Deux bureaux individuels type localisés au cinquième niveau de l’édifice de la Caisse de dépôt et placement (CDP) de Montréal ont servi de cas d’étude et leur évaluation a été effectuée sous ciels ensoleillés et couvert. Parmi les indicateurs retenus figurent le ratio d’éclairement vectoriel/scalaire, l’altitude du vecteur d’éclairement, l’indice de variabilité de la luminance (LD Index), l’éclairement naturel utile (UDI) et la dimension des plages de lumière directe. Quoique rarement employés lors d’études lumineuses, la littérature récente encourage leur utilisation dans le but d’approfondir le travail d’analyse. En plus de documenter de manière exhaustive l’ambiance lumineuse des bureaux, les résultats obtenus illustrent la complémentarité des indicateurs, soit la nécessité de les comparer entre eux afin de juger adéquatement de la qualité de la lumière dans un espace. Finalement, la synthèse des résultats, proposée sous forme de graphiques polaires, introduit un nouveau mode de représentation des ambiances lumineuses.
This research aims to develop a methodology for the assessment of daylight quality in individual office spaces. The proposed methodology is based on performance indicators related to illuminance, distribution (variability) , glare and directivity. The calculations are performed with the Radiance Lighting Simulation System for a South-West and a North-West oriented office located on the fifth floor of the Caisse de dépôt et placement (CDP) in Montreal. The daylight conditions of these offices are studied under a series of clear skies and an overcast sky. The selected indicators for the assessment of daylight quality are the vector/scalar illuminance ratio, the altitude of illuminance vector, the luminance difference index (LD index), the useful daylight illuminance (UDI) and the size of sunlight patches. The literature encourages the researcher to use advanced indicators like these in order to go beyond a simple study of horizontal illuminance and to deepen the analysis of luminous environment. The results allow a detailed performance assessment for each office. Furthermore, the analysis of the results underline the complementarity of the indicators, i.e., the necessity to compare them to adequately assess daylight quality. Finally, polar diagrams are used to synthesize the results. This graphical approach introduces a useful method to represent luminous ambiances.
APA, Harvard, Vancouver, ISO, and other styles
11

Percebois, Christian. "Définition et évaluation d'un modèle d'exécution répartie pour les systèmes logiques non-déterministes." Toulouse 3, 1990. http://www.theses.fr/1990TOU30220.

Full text
Abstract:
L'ensemble des travaux resumes dans cette these et par le sigle coala (calculateur oriente acteurs pour la logique et ses applications) ont pour objet la mise en uvre et le support efficace du parallelisme inherent au langage prolog, sans l'intervention du programmeur. Le modele d'interpretation repartie utilise le graphe de connexion et/ou de r. Kowalski comme representation interne des programmes, et correlativement, utilise sa procedure de preuve comme methode de resolution parallele. Dans ce graphe, deux litteraux pouvant s'appareiller de part et d'autre du symbole implication dans deux clauses differentes sont relies par un arc. A chaque arc du graphe correspond un resolvant possible. Deux niveaux de parallelisme sont exploites: le parallelisme associe a la construction des differents arcs pour chaque resolvant. Ces deux niveaux sont cependant intimement meles et correspondent respectivement aux parallelismes- ou et et. A partir d'une premiere version du modele d'execution, plusieurs extensions ont ete proposees et realisees. Elles concernent le parallelisme-et independant, le parallelisme de recherche et l'ajout des predicats evaluables et a effets de bord. Afin de garantir une certaine efficacite du modele d'execution, une premiere implantation de ce modele d'execution a ete etudiee sur une maquette multiprocesseur a base de transputers, baptisee hypertore. Elle a permis de specifier la machine abstraite ciam (coala inference abstract machine), liee a la compilation du modele d'execution. Dans cette approche, il s'agit de traduire le comportement de chaque arc du graphe en une sequence d'instructions, dans le meme esprit que la compilation sequentielle du langage prolog
APA, Harvard, Vancouver, ISO, and other styles
12

Aljundi, Ahmad Chadi. "Une méthodologie multi-critères pour l'évaluation de performance appliquée aux architectures de réseaux d'interconnexion multi-étages." Lille 1, 2004. https://pepite-depot.univ-lille.fr/LIBRE/Th_Num/2004/50376-2004-Aljundi.pdf.

Full text
Abstract:
Dans cette thèse, nous nous intéressons à l'évaluation de performance des réseaux d'interconnexion multi-étages. Le travail présenté couvre deux aspects essentiels : la définition d'une méthodologie multi-critères pour l'évaluation et la comparaison de réseaux d'interconnexion. Cette méthodologie est basée sur la définition d'une fonction de distance dans un espace multidimensionnel, où chaque dimension représente un facteur de performance. La fonction peut être utilisée dans un contexte d'optimisation Pareto ou dans le contexte d'une classification. Le deuxième aspect, est la proposition d'une nouvelle famille de réseau d'interconnexion multi-étages baptisée les réseaux d'interconnexion Delta surdimensionnés. Cette famille de réseaux fournit des performances meilleures que celles des réseaux Delta au prix d'une complexité plus élevée. La méthodologie est utilisée pour comparer les performances de deux familles en prenant en compte cette complexité plus élevée.
APA, Harvard, Vancouver, ISO, and other styles
13

Morin, Marie-Pier. "L’aménagement d’unités de soins généraux et intensifs en milieu hospitalier : Élaboration d’un outil d’aide à la décision architecturale et évaluation par les experts en santé et en architecture hospitalière." Thesis, Université Laval, 2014. http://www.theses.ulaval.ca/2014/30814/30814.pdf.

Full text
Abstract:
Ce mémoire est issu d’une collaboration de recherche entre l’École d’architecture de l’Université Laval et L’Hôtel-Dieu de Québec (L’HDQ) à l’été et l’automne 2009 qui visait à développer et mettre à l’épreuve un outil d’aide à la conception et à la décision architecturale pour des unités de soins hospitalières. L’outil conçu présente les données les plus probantes identifiées dans la littérature scientifique quant à l’aménagement d’unités de soins généraux et intensifs optimales, accompagnées d’objectifs et de critères de conception. Cet outil s’adresse aux différents comités engagés dans le projet d’agrandissement et de rénovation d’unités de soins à L’HDQ ainsi qu’aux architectes responsables de développer des hypothèses d’aménagement. Conçu dans sa première version à l’été 2009, il a été évalué dans le cadre du module de spécialisation en Programmation et design du programme de maîtrise en architecture à l’automne 2009. Deux groupes distincts, constitués d’une part, des 15 candidats à la maîtrise participant à cette formation et d’autre part, des membres du comité expert accompagnant le travail de conception des étudiants, ont évalué la pertinence de l’outil utilisé sur une période de 15 semaines. Le comité expert était composé de six professionnels de L’HDQ et de spécialistes de l’aménagement des hôpitaux des secteurs privé et public. L’ensemble de ce travail a été réalisé dans le cadre de deux mémoires de recherche en sciences de l’architecture, soit ceux d’Isabelle Couillard et de Marie-Pier Morin. La recension des écrits scientifiques ayant servi à nourrir l’outil d’aide à la conception et à la décision architecturale a été partagée entre elles. Celle de Marie-Pier Morin traite de l’efficacité du personnel soignant, de chute de patients, d’erreurs médicales, d’ergonomie des lieux de travail ainsi que de contrôle, de surveillance et de communication interpersonnelle; tandis que celle d’Isabelle Couillard porte sur la flexibilité et l’adaptabilité des lieux, les infections nosocomiales et le concept de « milieu guérissant ». Quant à la mise à l’épreuve de l’outil, le mémoire de Marie-Pier Morin présente le point de vue des intervenants engagés dans le projet d’agrandissement et de rénovation d’unités de soins à L’HDQ sur l’outil en tant qu’aide à la décision architecturale, alors que celui d’Isabelle Couillard traite plutôt celui des étudiants concepteurs ayant évalué l’outil en tant qu’aide à la conception architecturale.
This thesis stems from a research collaboration between l’École d’architecture de l’Université Laval and L’Hôtel-Dieu de Québec (L’HDQ) during summer and autumn 2009, which aimed to develop and test an architectural conception and decision-making tool for nursing units. The tool presents the best available evidence from research to plan optimal general and intensive care units, along with objectives and design criteria. This tool is addressed to the different committees engaged in L’HDQ’s extension and renovation project of nursing units and to the architects in charge of the development of design hypotheses. Conceived in its first version during summer 2009, it was tested in the context of a specialization module in Programming and design of a master’s degree at Université Laval during autumn 2009. Two distinct groups, constituted on one hand of 15 students participating in this formation, and on the other hand of members of an expert committee guiding the conception works of the students, evaluated the relevance of the tool used during 15 weeks. The expert committee was composed of six professionals from L’HDQ and hospital planning specialists from public and private sectors. The whole work was done in the context of two theses in architectural sciences, being the ones of Isabelle Couillard and Marie-Pier Morin. The systematic review used to feed the architectural conception and decision-making tool was divided between them. Marie-Pier Morin’s one focuses on the subjects related to staff efficiency, patient fall, medical errors, workplace ergonomics and control, monitoring and interpersonal communication while Isabelle Couillard’s one concerns the flexibility and adaptability of the environment, hospital-acquired infection and healing environment. As for the test of the tool, Marie-Pier Morin’s thesis presents the point of view of the professionals engaged in L’HDQ’s extension and renovation project of nursing units on the tool to assist decision-making while Isabelle Couillard’s thesis rather presents the students’ point of view on the tool to help the conception of an architectural project.
APA, Harvard, Vancouver, ISO, and other styles
14

Ruel, Silvain. "Évaluation des bornes des performances temporelles des Architectures d'Automatisation en Réseau par preuves itératives de propriétés logiques." Phd thesis, École normale supérieure de Cachan - ENS Cachan, 2009. http://tel.archives-ouvertes.fr/tel-00405783.

Full text
Abstract:
Ce mémoire de thèse propose une approche pour l'obtention des bornes des performances temporelles d'une Architecture d'Automatisation en Réseau par preuves itératives de propriétés d'atteignabilité sur un modèle formel de l'architecture. Ces propriétés d'atteignabilité sont définies grâce à un automate observateur temporisé et paramétré, dont les gardes de certaines transitions sont fonction d'un paramètre temporel. A chaque itération, les résultats de preuves permettent de déterminer la valeur de ce paramètre pour la prochaine itération ; un algorithme de recherche par dichotomie assure la convergence des itérations. La mise en œuvre de cette approche sur des architectures de taille non triviale a nécessité le développement d'une méthode d'abstraction qui comporte deux étapes : simplification de la structure et modification des modèles formels des composants figurant dans la structure simplifiée, ceci afin de prendre en compte les phénomènes de concurrence entre requêtes émises par différents composants. Ces contributions formelles et méthodologiques ont été validées expérimentalement par le traitement de plusieurs cas de taille et complexité croissantes, basés sur le protocole Modbus TCP/IP.
APA, Harvard, Vancouver, ISO, and other styles
15

Khemiri, Abdelhak. "Elaboration d'un support d'économie d'énergie dans le secteur tertiaire, cas des hôtels." Bordeaux 1, 2006. http://www.theses.fr/2006BOR13236.

Full text
Abstract:
Le sujet traité propose des supports d’économie d’énergie (outils, modèles, base de données, etc. ) qui aident les décideurs pour mener des actions d’économie d’énergie dans les établissements du secteur tertiaire en particulier les hôtels. Dans une première partie nous traitons les généralités énergétiques dans le monde, en méditerranée puis en Tunisie en lien avec les objectifs visés sur les bâtiments tertiaires. Par la suite, nous avons introduit la notion de rendement global et rendement d'exploitation pouvant s'appliquer à tous les aspects thermiques dans un bâtiment (chauffage, climatisation, production d'eau chaude sanitaire, cuisson,. . . ). Notre raisonnement est basé essentiellement sur l'énergie utile, d'une part, et sur l'énergie totale consommée nécessaire au fonctionnement du processus étudié, d'autre part ; cette dernière étant la somme des pertes par rapport aux frontières, de l'énergie d'initialisation, de l'énergie liée au sujet, et de l'énergie perdue par le système d'exploitation. Une autre approche, exploitant les outils statistiques et le « benchmarking », est présentée en vue de connaître la consommation annuelle. Pour l’énergie électrique, on traite en particulier de la maîtrise de l’éclairage et des pertes sur les postes de transformation ou sur les lignes (mauvais facteurs de puissance, faibles sections des câbles). Ainsi, une méthodologie des aspects technico-économiques visant l'amélioration des bilans est proposée. Enfin, les aspects de contrôle et de gestion de l’énergie d’un bâtiment tertiaire sont traités et appliqués par la mise en place d’un programme de gestion énergétique et une méthodologie de suivi et de contrôle à travers un tableau de bord.
APA, Harvard, Vancouver, ISO, and other styles
16

Béringuier, Philippe. "De l'usage du paysage : méthodologies et pratiques pour des projets d'aménagement paysager différenciés." Toulouse 2, 1994. http://www.theses.fr/1994TOU20060.

Full text
Abstract:
L'etude du paysage reliee a l'amenagement des territoires a ete notre principal objectif. Le paysage est alors envisage comme une lecture specifique des lieux et sert de guide a un amenagement renove des cadres de vie. Pour ce faire nous avons mis au point un systeme paysager qui associe un guide methodologique et deux determinants que sont le terrain et la finalite d'amenagement. Le guide methodologique se compose d'une part de six principes de travail correspondant aux outils de lecture et d'analyse, et d'autre part d'une demarche qui se deroule en trois temps, de l'etude a l'action. L'evaluation paysagere, seconde etape, se presente comme un prealable indispensable a tout projet d'amenagement. Toutefois, il convient de distinguer plusieurs niveaux dans les etudes paysageres etles procedures d'amenagement notamment selon l'echelle du projet et sa finalite. A cet effet trois demarches finalisees et operationnelles - l'audit, la monographie, la sitologie - correspondent a un ajustement du guide methodologique pour s'adapter a la diversite des paysages et permettre des transpositions methodologiques. Leur application a trois paysages distincts, une avenue urbaine a toulouse, une petite ville a l'interface du rural et de l'urbain, l'isle-jourdain et un milieu rural de moyenne montagne, les baronnies de bigorre, permet de conduire l'etude et de developper des projets d'amenagement differencies et complementaires. Aussi ces demarches procedent d'un va et vient permanent entre le general et le particulier
Landscape investigation connected to areas planning has been our main purpose. Landscape is understood as a specific place reading and guides to a renewal planning of life environnement. So we settled a landscape system that bind a methodologic guide and two factors : ground and planning finality. The methodologic guide is build firstly by six work principles corresponding to reading and analysis tools, then by approaching study to action in three times. Landscape evaluation, step numbre two, is an essential preliminary to every planning project. Howxever, it's worth it to discern several levels in landscape investigations and plannign procedure regarding the project scale and his aim. So three achieved approaches - audit, monography, sopt study - correspond to a methodologic guide adjustment in order to fit to landscapes diversity, and allow methodologicals transpositions. Their application to three different landscape : a city avenue in toulouse, a small town between country and town, l'isle-jourdain, and a country middle mountain, les baronnies de bigorre, allows to manage the study and works out differents and complementaries planning projects. These approaches proceed from a permanent go and move between general and singular
APA, Harvard, Vancouver, ISO, and other styles
17

Weill, Jean-Christophe. "Programmes d'échecs de championnat : architecture logicielle, synthèse de fonctions d'évaluation, parallélisme de recherche." Paris 8, 1995. http://www.theses.fr/1995PA080954.

Full text
Abstract:
La programmation des jeux de reflexion fut consideree comme the drosophilia melanogaster of machine intelligence. Ce domaine devait permettre l'elaboration de techniques et d'algorithmes reutilisables dans d'autres domaines de l'intelligence artificielle. Selon c. Shannon, il s'agit d'un sujet sensible ou l'avancee est facilement communicable au public. Nous abordons cette question dans le cadre de programmes de jeux devant repondre a un probleme dans des conditions de tournois. Nous comparons les differentes recherches minimax basees sur des elagages alpha-beta avec l'algorithme negac* que nous avons defini et donnons les principaux resultats que nous avons etablis sur sa complexite. Nous definissons, dans le paradigme negamax, le nouvel algorithme de recherche de nombre de preuves et nous le comparons avec notre programme d'echecs ecume, dans le cadre des recherches de mats. Nous exposons un ensemble d'heuristiques qui permettent de rendre les recherches negamax plus rapides et plus fiables en explicitant les options que nous avons prises dans nos programmes d'echecs. Nous presentons nos resultats sur la parallelisation de la recherche minimax pour une machine distribuee: la connection machine 5. Ils nous ont permis de definir une nouvelle methode que nous avons comparee aux meilleures methodes connues jusqu'alors, sur des arbres de jeux simules et reels. Nous continuons par la presentation de notre methode de construction de fonctions d'evaluation en expliquant comment nous avons pu introduire la notion de plan strategique. Nous montrons aussi comment construire automatiquement une fonction d'evaluation par apprentissage dans la finale roi et dame contre roi et dame. Enfin, nous decrivons l'ensemble des caracteristiques de nos programmes d'echecs, dont cumulus 2. 0 qui a remporte le titre de vice-champion du monde d'echecs logiciels toutes categories
APA, Harvard, Vancouver, ISO, and other styles
18

Dussault, Jean-Michel. "Évaluation des performances écoénergétiques des technologies de fenestration intelligente à opacité variable." Thesis, Université Laval, 2012. http://www.theses.ulaval.ca/2012/29313/29313.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
19

Bernard, Guy. "Performances et systèmes répartis : de la modélisation à la réalisation." Paris 11, 1989. http://www.theses.fr/1989PA112087.

Full text
Abstract:
On présente trois exemples de mise en œuvre des techniques de modélisation : optimisation de l'interconnexion de réseaux locaux, variante du protocole csma, problème de régulation d'accès. Travail effectué dans le cadre du projet Epsilon: spécifications du système, implémentation des primitives, mesures. Réalisation de la répartition dans une configuration serveur-postes de travail.
APA, Harvard, Vancouver, ISO, and other styles
20

Dacier, Marc. "Vers une évaluation quantitative de la sécurité informatique." Phd thesis, Institut National Polytechnique de Toulouse - INPT, 1994. http://tel.archives-ouvertes.fr/tel-00012022.

Full text
Abstract:
Les systèmes d'information actuels doivent, à la fois, protéger les informations qui leur sont confiées et se plier à des environnements opérationnels variables. Cesdeux objectifs, sécurité et flexibilité, peuvent être antinomiques. Ce conflit conduit généralement à l'utilisation de systèmes offrant un niveau de sécurité acceptable, mais non maximal. Définir un tel niveau présuppose l'existence de méthodes d'évaluation de la sécurité. Cette problématique fait l'objet de cette thèse. L'auteur y passe en revue les différents critères d'évaluation existant ainsi que les méthodes dites d'analyse de risques. Ceci introduit la nécessité de définir un cadre formel capable de modéliser tout système et d'évaluer dans quelle mesure il satisfait à des objectifs de protection précis.
Les modèles formels développés pour l'étude de la sécurité informatique, n'offrent pas le cadre mathématique désiré. L'auteur montre qu'ils adoptent une hypothèse de pire cas sur le comportement des utilisateurs, incompatible avec une modélisation réaliste. Après avoir montré, sur la base du modèle take-grant, comment s'affranchir de cette hypothèse, l'auteur définit un nouveau modèle, le graphe des privilèges, plus efficace pour gérer certains problèmes de protection. Il illustre son utilisation dans le cadre des systèmes Unix.
Enfin, l'auteur propose d'évaluer la sécurité en calculant le temps et l'effort nécessaires à un intrus pour violer les objectifs de protection. Il montre comment définir un cadre mathématique apte à représenter le système pour obtenir de telles mesures. Pour cela, le graphe des privilèges est transformé en un réseau de Petri stochastique et son graphe des marquages est dérivé. Les mesures sont calculées sur cette dernière structure et leurs propriétés mathématiques sont démontrées. L'auteur illustre l'utilité du modèle par quelques résultats issus d'un prototype développé afin d'étudier la sécurité opérationnelle d'un système Unix.
APA, Harvard, Vancouver, ISO, and other styles
21

Vu, Van Tuan. "Recherche et évaluation d'une nouvelle architecture de transistor bipolaire à hétérojonction Si/SiGe pour la prochaine génération de technologie BiCMOS." Thesis, Bordeaux, 2016. http://www.theses.fr/2016BORD0304/document.

Full text
Abstract:
L'objectif principal de cette thèse est de proposer et d'évaluer une nouvelle architecture de Transistor Bipolaire à Héterojonction (TBH) Si/SiGe s’affranchissant des limitations de l'architecture conventionnelle DPSA-SEG (Double-Polysilicium Self-Aligned, Selective Epitaxial Growth) utilisée dans la technologie 55 nm Si/SiGe BiCMOS (BiCMOS055) de STMicroelectronics. Cette nouvelle architecture est conçue pour être compatible avec la technologie 28-nm FD-SOI (Fully Depleted Si-licon On Insulator), avec pour objectif d'atteindre la performance de 400 GHz de fT et 600 GHz de fMAX dans ce noeud. Pour atteindre cet objectif ambitieux, plusieurs études complémentaires ont été menées: 1/ l'exploration et la comparaison de différentes architectures de TBH SiGe, 2/ l'étalonnage TCAD en BiCMOS055, 3/ l'étude du budget thermique induit par la fabrication des technologies BiCMOS, et finalement 4/ l'étude d'une architecture innovante et son optimisation. Les procédés de fabrication ainsi que les modèles physiques (comprenant le rétrécissement de la bande interdite, la vitesse de saturation, la mobilité à fort champ, la recombinaison SRH, l'ionisation par impact, la résistance distribuée de l'émetteur, l'auto-échauffement ainsi que l’effet tunnel induit par piégeage des électrons), ont été étalonnés dans la technologie BiCMOS055. L'étude de l’impact du budget thermique sur les performances des TBH SiGe dans des noeuds CMOS avancés (jusqu’au 14 nm) montre que le fT maximum peut atteindre 370 GHz dans une prochaine génération où les profils verticaux du BiCMOS055 seraient ‘simplement’ adaptés à l’optimisation du budget thermique total. Enfin, l'architecture TBH SiGe EXBIC, prenant son nom d’une base extrinsèque épitaxiale isolée du collecteur, est choisie comme la candidate la plus prometteuse pour la prochaine génération de TBH dans une technologie BiCMOS FD-SOI dans un noeud 28 nm. L'optimisation en TCAD de cette architecture résulte en des performances électriques remarquables telles que 470 GHz fT et 870 GHz fMAX dans ce noeud technologique
The ultimate objective of this thesis is to propose and evaluate a novel SiGe HBT architec-ture overcoming the limitation of the conventional Double-Polysilicon Self-Aligned (DPSA) archi-tecture using Selective Epitaxial Growth (SEG). This architecture is designed to be compatible with the 28-nm Fully Depleted (FD) Silicon On Insulator (SOI) CMOS with a purpose to reach the objec-tive of 400 GHz fT and 600 GHz fMAX performance in this node. In order to achieve this ambitious objective, several studies, including the exploration and comparison of different SiGe HBT architec-tures, 55-nm Si/SiGe BiCMOS TCAD calibration, Si/SiGe BiCMOS thermal budget study, investi-gating a novel architecture and its optimization, have been carried out. Both, the fabrication process and physical device models (incl. band gap narrowing, saturation velocity, high-field mobility, SRH recombination, impact ionization, distributed emitter resistance, self-heating and trap-assisted tunnel-ing, as well as band-to-band tunneling), have been calibrated in the 55-nm Si/SiGe BiCMOS tech-nology. Furthermore, investigations done on process thermal budget reduction show that a 370 GHz fT SiGe HBT can be achieved in 55nm assuming the modification of few process steps and the tuning of the bipolar vertical profile. Finally, the Fully Self-Aligned (FSA) SiGe HBT architecture using Selective Epitaxial Growth (SEG) and featuring an Epitaxial eXtrinsic Base Isolated from the Collector (EXBIC) is chosen as the most promising candidate for the 28-nm FD-SOI BiCMOS genera-tion. The optimization of this architecture results in interesting electrical performances such as 470 GHz fT and 870 GHz fMAX in this technology node
APA, Harvard, Vancouver, ISO, and other styles
22

Chaudemar, Jean-Charles. "Étude des architectures de sécurité de systèmes autonomes : formalisation et évaluation en Event B." Thesis, Toulouse, ISAE, 2012. http://www.theses.fr/2012ESAE0003/document.

Full text
Abstract:
La recherche de la sûreté de fonctionnement des systèmes complexes impose une démarche de conception rigoureuse. Les travaux de cette thèse s’inscrivent dans le cadre la modélisation formelle des systèmes de contrôle autonomes tolérants aux fautes. Le premier objectif a été de proposer une formalisation d’une architecture générique en couches fonctionnelles qui couvre toutes les activités essentielles du système de contrôle et qui intègre des mécanismes de sécurité. Le second objectif a été de fournir une méthode et des outils pour évaluer qualitativement les exigences de sécurité. Le cadre formel de modélisation et d’évaluation repose sur le formalisme Event-B. La modélisation Event-B proposée tire son originalité d’une prise en compte par raffinements successifs des échanges et des relations entre les couches de l’architecture étudiée. Par ailleurs, les exigences de sécurité sont spécifiées à l’aide d’invariants et de théorèmes. Le respect de ces exigences dépend de propriétés intrinsèques au système décrites sous forme d’axiomes. Les preuves que le principe d’architecture proposé satisfait bien les exigences de sécurité attendue ont été réalisées avec les outils de preuve de la plateforme Rodin. L’ensemble des propriétés fonctionnelles et des propriétés relatives aux mécanismes de tolérance aux fautes, ainsi modélisées en Event-B, renforce la pertinence de la modélisation adoptée pour une analyse de sécurité. Cette approche est par la suite mise en œuvre sur un cas d’étude d’un drone ONERA
The study of complex system safety requires a rigorous design process. The context of this work is the formal modeling of fault tolerant autonomous control systems. The first objective has been to provide a formal specification of a generic layered architecture that covers all the main activities of control system and implement safety mechanisms. The second objective has been to provide tools and a method to qualitatively assess safety requirements. The formal framework of modeling and assessment relies on Event-B formalism. The proposed Event-B modeling is original because it takes into account exchanges and relations betweenarchitecture layers by means of refinement. Safety requirements are first specified with invariants and theorems. The meeting of these requirements depends on intrinsic properties described with axioms. The proofs that the concept of the proposed architecture meets the specified safety requirements were discharged with the proof tools of the Rodin platform. All the functional properties and the properties relating to fault tolerant mechanisms improve the relevance of the adopted Event-B modeling for safety analysis. Then, this approach isimplemented on a study case of ONERA UAV
APA, Harvard, Vancouver, ISO, and other styles
23

Benosman, Ridha Mohammed. "Conception et évaluation de performance d'un Bus applicatif, massivement parallèle et orienté service." Thesis, Paris, CNAM, 2013. http://www.theses.fr/2013CNAM0889/document.

Full text
Abstract:
Enterprise Service Bus (ESB) est actuellement l'approche la plus prometteuse pour l'implémentation d'une architecture orientée services (SOA : Service-Oriented Architecture) par l'intégration des différentes applications isolées dans une plateforme centralisée. De nombreuses solutions d'intégration à base d'ESB on été proposées, elles sont soit open-source comme : Mule, Petals, ou encore Fuse, soit propriétaires tels que : Sonic ESB, IBM WebSphere Message Broker, ou Oracle ESB. Cependant, il n'en existe aucune en mesure de traiter, à la fois des aspects : d'intégration et de traitement massivement parallèle, du moins à notre connaissance. L'intégration du parallélisme dans le traitement est un moyen de tirer profit des technologies multicœurs/multiprocesseurs qui améliorent considérablement les performances des ESBs.Toutefois, cette intégration est une démarche complexe et soulève des problèmes à plusieurs niveaux : communication, synchronisation, partage de données, etc.Dans cette thèse, nous présentons l'étude d'une nouvelle architecture massivement parallèle de type ESB
Enterprise service bus (ESB) is currently the most promising approach for business application integration in distributed and heterogeneous environments. It allows to deploy a service-oriented architecture (SOA) by the integration of all the isolated applications on a decentralized platform.Several commercial or open source ESB-based solutions have been proposed. However, to the best of our knowledge, none of these solutions has integrated the parallel processing. The integration of parallelism in the treatment allows to take advantage of the multicore/multiprocessor technologies and thus can improve greatly the ESB performance. However, this integration is difficult to achieve, and poses problems at multiple levels (communication, synchronization, etc). In this study, we present a new massively parallel ESB architecture that meets this challenge
APA, Harvard, Vancouver, ISO, and other styles
24

Abdennadher, Nabil. "Conception de méthodes de placement et d'ordonnancement de programmes parallèles sur un système multi processeur : évaluation sur un réseau de transputers." Valenciennes, 1991. https://ged.uphf.fr/nuxeo/site/esupversions/be35d3cb-258a-4a5f-bc58-c3be2899b347.

Full text
Abstract:
Le développement des langages et des architectures parallèles a donné de l'importance au problème de placement des tâches sur un système multiprocesseur. Avant l'exécution, il est indispensable de placer les différents modules du programme parallèle sur les processeurs de la machine cible, placement qui optimise un critère défini auparavant. Cette thèse présente un algorithme heuristique de placement des tâches qui tient compte des relations de précédence qui existent entre les tâches et de la politique d'ordonnancement implantée sur chaque processeur. Le placement est évalué en fonction de deux politiques: la politique partage de temps et la politique propriété semi dynamique (psd) qui consiste a attribuer à chaque tâche une priorité en fonction de la structure du graphe de tâches représentant le programme parallèle. L’algorithme est constitué de trois phases: -phase glouton qui consiste à placer les tâches sur les processeurs; -phase de multiplexage dont l'objectif est de placer les canaux de communications inter-tâches sur les liens physiques inter-processeurs; -phase de routage qui consiste à étendre sur plusieurs liens physiques les canaux de communication qui n'ont pas été placés au cours de la seconde phase. La topologie de la machine cible n'est pas fixée a priori. Elle est déterminée en fonction du placement des tâches et des contraintes matérielles imposées par le constructeur de la machine.
APA, Harvard, Vancouver, ISO, and other styles
25

Meunier, Pascal. "Évaluation de performance d'architectures de commande de systèmes automatisés industriels." Phd thesis, École normale supérieure de Cachan - ENS Cachan, 2006. http://tel.archives-ouvertes.fr/tel-00761994.

Full text
Abstract:
Les performances temporelles d'une architecture de contrôle-commande conditionnent fortement celles du système automatisé de production commandé. Pour maîtriser ces performances temporelles, l'architecte automaticien doit pouvoir les évaluer à chaque phase du cycle de développement : de l'étude d'avant-projet à la conception détaillée ainsi que lors de la mise au point. Il n'a cependant pas les mêmes attentes concernant les performances estimées. Des résultats approximatifs, obtenus rapidement à partir de données encore imprécises, lui suffisent en début de cycle de développement, alors que des prévisions fiables, même si elles sont plus difficiles à obtenir, lui sont nécessaires en conception détaillée. L'approche que nous présentons prend en compte ces différents besoins et contraintes. Elle consiste en une méthode d'évaluation des performances temporelles d'architectures de commande complexes distribuées en réseaux, destinée à accompagner l'architecte tout au long du cycle de développement. Cette méthode est basée sur une modélisation modulaire du comportement temporel de la commande par réseaux de Petri Colorés Temporisés. Pour ce faire, trois temps sont nécessaires dans la modélisation. La modélisation de l'architecture fonctionnelle consiste à représenter les fonctions de commande, et leurs interactions. La modélisation de l'architecture matérielle permet de traduire la topologie et les connexions entre équipements de commandes (automates programmables, réseaux de communication, ...). L'affectation des fonctions de commande aux équipements ainsi que la prise en compte des communications entre ces fonctions via des réseaux de communication constitue le modèle de l'architecture opérationnelle. Une fois le modèle de comportement de l'ensemble de l'architecture opérationnelle constitué, l'évaluation des performances temporelles est réalisée par simulation du réseau de Petri obtenu. Pour valider notre approche, nous traitons un exemple significatif à l'aide de la plate forme logicielle Design CPN. Cette étude de cas nous permet de présenter une série d'études portant sur la convergence de nos modèles, sur la sensibilité des résultats de simulation aux erreurs de paramétrages et sur la précision des performances obtenues par simulation en les confrontant à celles mesurées sur le système réel.
APA, Harvard, Vancouver, ISO, and other styles
26

Bounouar, Mohamed Amine. "Transistors mono-electroniques double-grille : Modélisation, conception and évaluation d’architectures logiques." Thesis, Lyon, INSA, 2013. http://www.theses.fr/2013ISAL0068/document.

Full text
Abstract:
Dans les années à venir, l’industrie de la microélectronique doit développer de nouvelles filières technologiques qui pourront devenir des successeurs ou des compléments de la technologie CMOS ultime. Parmi ces technologies émergentes relevant du domaine ‘‘Beyond CMOS’’, ce travail de recherche porte sur les transistors mono-électroniques (SET) dont le fonctionnement est basé sur la quantification de la charge électrique, le transport quantique et la répulsion Coulombienne. Les SETs doivent être étudiés à trois niveaux : composants, circuits et système. Ces nouveaux composants, utilisent à leur profit le phénomène dit de blocage de Coulomb permettant le transit des électrons de manière séquentielle, afin de contrôler très précisément le courant véhiculé. Ainsi, le caractère granulaire de la charge électrique dans le transport des électrons par effet tunnel, permet d’envisager la réalisation de transistors et de cellules mémoires à haute densité d’intégration, basse consommation. L’objectif principal de ce travail de thèse est d’explorer et d’évaluer le potentiel des transistors mono-électroniques double-grille métalliques (DG-SETs) pour les circuits logiques numériques. De ce fait, les travaux de recherches proposés sont divisés en trois parties : i) le développement des outils de simulation et tout particulièrement un modèle analytique de DG-SET ; ii) la conception de circuits numériques à base de DGSETs dans une approche ‘‘cellules standards’’ ; et iii) l’exploration d’architectures logiques versatiles à base de DG-SETs en exploitant la double-grille du dispositif. Un modèle analytique pour les DG-SETs métalliques fonctionnant à température ambiante et au-delà est présenté. Ce modèle est basé sur des paramètres physiques et géométriques et implémenté en langage Verilog-A. Il est utilisable pour la conception de circuits analogiques ou numériques hybrides SET-CMOS. A l’aide de cet outil, nous avons conçu, simulé et évalué les performances de circuits logiques à base de DG-SETs afin de mettre en avant leur utilisation dans les futurs circuits ULSI. Une bibliothèque de cellules logiques, à base de DG-SETs, fonctionnant à haute température est présentée. Des résultats remarquables ont été atteints notamment en terme de consommation d’énergie. De plus, des architectures logiques telles que les blocs élémentaires pour le calcul (ALU, SRAM, etc.) ont été conçues entièrement à base de DG-SETs. La flexibilité offerte par la seconde grille du DG-SET a permis de concevoir une nouvelle famille de circuits logiques flexibles à base de portes de transmission. Une réduction du nombre de transistors par fonction et de consommation a été atteinte. Enfin, des analyses Monte-Carlo sont abordées afin de déterminer la robustesse des circuits logiques conçus à l'égard des dispersions technologiques
In this work, we have presented a physics-based analytical SET model for hybrid SET-CMOS circuit simulations. A realistic SET modeling approach has been used to provide a compact SET model that takes several conduction mechanisms into account and closely matches experimental SET characteristics. The model is implemented in Verilog-A language, and can provide suitable environment to simulate hybrid SET-CMOS architectures. We have presented logic circuit design technique based on double gate metallic SET at room temperature. We have also shown the flexibility that the second gate can bring in order to configure the SET into P-type and N-type. Given that the same device is utilized, the circuit design approach exhibits regularity of the logic gate that simplifies the design process and leads to reduce the increasing process variations. Afterwards, we have addressed a new Boolean logic family based on DG-SET. An evaluation of the performance metrics have been carried out to quantify SET technology at the circuit level and compared to advanced CMOS technology nodes. SET-based static memory was achieved and performances metrics have been discussed. At the architectural level, we have investigated both full DG-SET based arithmetic logic blocks (FA and ALU) and programmable logic circuits to emphasize the low power aspect of the technology. The extra power reduction of SETs based logic gates compared to the CMOS makes this technology much attractive for ultra-low power embedded applications. In this way, architectures based on SETs may offer a new computational paradigm with low power consumption and low voltage operation. We have also addressed a flexible logic design methodology based on DG-SET transmission gates. Unlike conventional design approach, the XOR / XNOR behavior can be efficiently implemented with only 4 transistors. Moreover, this approach allows obtaining reconfigurable XOR / XNOR gates by swapping the cell biasing. Given that the same device is utilized, the structure can be physically implemented and established in a regular manner. Finally, complex logic gates based on DG-SET transmission gates offer an improvement in terms of transistor device count and power consumption compared to standard complementary SETs implementations.Process variations are introduced through our model enabling then a statistical study to better estimate the SET-based circuit performances and robustness. SET features low power but limited operating frequency, i.e. the parasitics linked to the interconnects reduce the circuit operating frequency as the SET Ion current is limited to the nA range. In term of perspectives: i) detailed studying the impact on SET-based logic cells of process variation and random back ground charge ii) considering multi-level computational model and their associate architectures iii) investigating new computation paradigms (neuro-inspired architectures, quantum cellular automata) should be considered for future works
APA, Harvard, Vancouver, ISO, and other styles
27

Perrau, Antoine. ""Influence de la ventilation naturelle dans l'évolution de l'architecture tropicale". "Évaluation de cette influence au travers un regard d'architecte et d'urbaniste exerçant à La Réunion"." Thesis, La Réunion, 2019. http://www.theses.fr/2019LARE0045.

Full text
Abstract:
Cette thèse propose une approche axée sur l’étude de l’influence de la ventilation naturelle dans l’évolution de l’architecture tropicale, d’hier, aujourd’hui et demain. Ce travail part des constats liés à la crise énergétique et ses conséquences, le réchauffement climatique et l’usage immodéré de la climatisation. Il se focalise sur le milieu tropical en pleine croissance démographique, économique et donc énergétique. Dans un premier temps elle répond à la question : Un climat commun, tropical humide, a-t-il pu produire des typologies architecturales originales et communes, malgré une forte dispersion géographique et temporelle, à une époque où la physique des bâtiments n’avait pas cours. ? Dans un deuxième temps, nous avons tenté de caractériser le confort thermique et par quels dispositifs (architecturaux et techniques) il est obtenu pour une « case » traditionnelle Réunionnaise représentative. Dans un troisième temps, nous nous sommes demandés : Comment transposer ces concepts anciens dans des projets contemporains, en respectant quels principes, avec quels outils et pour obtenir quels résultats ? Ceci à partir d’une évaluation de deux études de cas, L’Ilet du Centre et le collège Bouéni, des outils utilisés, de leur contexte d’emploi et l’efficience de ces dispositifs. Enfin dans un dernier temps nous avons pris conscience de la nécessité d’un changement d’échelle. Nous avons, au travers une étude de cas, la ZAC Cœur de ville de La Possession, étudié comment proposer la transcription et assurer la pérennité de la chaine de ventilation naturelle, étudiée dans les trois premières parties, afin de rendre le concept de ville éolienne applicable, opposable, et donc reproductible. Résultats : En termes de résultats, l’étude de ces exemples a montré l’importance de la ventilation naturelle dans la zone tropicale, l’impact sur les formes bâties, les solutions permettant l’obtention du confort dans une case traditionnelle réunionnaise, mis en évidence le rôle du contexte lointain et proche, le risque de dysfonctionnement en cas de modification de celui-ci, l’intérêt de l’usage approprié de nouveaux outils de conception, dont l’ingénierie aéraulique et de les adapter au contexte géographique, climatique et programmatique. Nous avons alors proposé d’assurer la pérennité de ces dispositifs à l’échelle du bâtiment en passant à l’échelle urbaine. Ce travail de thèse a permis notamment de faire des propositions sur une transposition règlementaire de ces règles dans le PLU. Pour cela, nous avons établis des règles de constructibilité, dans le projet Cœur de ville de La Possession préservant un potentiel de ventilation naturelle aux bâtiments dans la trame urbaine grâce à une approche en ingénierie aéraulique intégrée. La transposition règlementaire de ces règles dans le PLU a enfin permis de définir un droit à la ventilation naturelle. Ceci constitue un premier exemple appliqué d’urbanisme éolien réglementaire tout en mettant en évidence la nécessité d’effectuer un suivi opérationnel rigoureux pour en assurer le succès complet
This thesis proposes an approach based on the study of the influence of natural ventilation in the evolution of tropical architecture, past, present and future. This work starts from the observations related to the energy crisis and its consequences, global warming and the excessive use of air conditioning. It focuses on the tropical environment, which is experiencing rapid demographic, economic and therefore energy growth. First, it answers the question: Could a common, humid tropical climate have produced original and common architectural typologies, despite a strong geographical and temporal dispersion, at a time when the physics of buildings was not in use? In a second step, we tried to characterize thermal comfort and by which devices (architectural and technical) it is obtained for a traditional representative Reunionese "hut". Thirdly, we asked ourselves: How can we transpose these old concepts into contemporary projects, respecting which principles, with which tools and to obtain which results? This is based on an evaluation of two case studies, L'Ilet du Centre and Collège Bouéni, the tools used, their context of use and the efficiency of these devices. Finally, we have recently become aware of the need for a change of scale. Through a case study, we studied the ZAC Cœur de ville de La Possession, how to propose the transcription and ensure the sustainability of the natural ventilation chain, studied in the first three parts, in order to make the concept of a wind city applicable, enforceable, and therefore reproducible. Results: In terms of results, the study of these examples showed the importance of natural ventilation in the tropical zone, the impact on built forms, the solutions allowing comfort to be obtained in a traditional Reunionese hut, the role of the distant and nearby context, the risk of dysfunction in the event of modification of it, the interest of the appropriate use of new design tools, including aerothermal engineering and their adaptation to the geographical, climatic and programming context. We then proposed to ensure the sustainability of these devices on a building scale by moving to an urban scale. This thesis work made it possible in particular to make proposals for the regulatory transposition of these rules into the PLU. To this end, we have established constructability rules in the Cœur de ville project of La Possession, which preserves the potential for natural ventilation of buildings in the urban fabric through an integrated airflow engineering approach. The regulatory transposition of these rules into the PLU has finally made it possible to define a right to natural ventilation. This is a first applied example of regulatory wind energy planning while highlighting the need for rigorous operational monitoring to ensure its complete success
APA, Harvard, Vancouver, ISO, and other styles
28

Dorie, Laurent. "Modélisation et évaluation de performances en vue de la conception conjointe des systèmes reconfigurables : application à la radio logicielle." Nantes, 2007. http://www.theses.fr/2007NANT2107.

Full text
Abstract:
L’évolution rapide du contexte des systèmes embarqués conduit à des dispositifs de plus en plus complexes, susceptibles de supporter plusieurs modes de fonctionnement et différents standards. Au sein de ces systèmes, la reconfiguration apparaît comme une solution pour faire face à une telle évolution, et ce tout en respectant les contraintes d’embarquabilité. Cette propriété désigne le fait qu’un système puisse modifier son comportement. Elle se répercute aussi bien au niveau de l'application supportée que de la solution technologique considérée. De nouvelles méthodes et outils sont nécessaires pour prendre en compte la propriété de reconfiguration. Ainsi, l’objectif de cette thèse est de proposer des modèles de haut niveau d’abstraction en vue d’améliorer la conception conjointe des systèmes reconfigurables. La première partie de cette thèse s’est intéressée aux mécanismes de reconfiguration des systèmes de radiocommunication. Elle a conduit à la proposition de différentes modélisations visant à faciliter l’estimation de performances des systèmes de Radio Logicielle. La deuxième partie de cette thèse s’est focalisée sur les architectures des systèmes reconfigurables. Elle a permis d’aboutir à une modélisation capable de décrire l’impact du caractère reconfigurable des plates-formes multiprocesseurs hétérogènes sur le comportement et les performances des systèmes. L’intérêt des modélisations obtenues est illustré à travers une étude portant sur un cas concret de fonctionnement de systèmes de radiocommunication reconfigurables
The fast evolution of embedded system context leads to more and more complexity into electronic products that can support many ways of working and different standards. In these systems, the reconfiguration is a solution to face such evolution and also respect embedded constraints. This property points out that a system is able to modify its behaviour. Such property concerns just as well the application development as the technology design. New approaches and tools are needed to take into account this reconfiguration property. Thus, the goal of this thesis is to provide high abstraction level models in order to improve the co-design of reconfigurable systems. The first part of this thesis interested in reconfiguration mechanisms of radiocommunication systems. It led to the definition of modelling in order to describe the reconfigurable mechanisms of radio communication application. The second part of this thesis focused on the reconfigurable architectures. It led to a modelling able to describe the reconfigurable impact of heterogeneous multi-processor platforms on system behaviour and performances. The interest of these modelling is illustrated by a study which deals with a typical case of Software Radio
APA, Harvard, Vancouver, ISO, and other styles
29

Bounouar, Mohamed Amine. "Transistors mono-electroniques double-grille : Modélisation, conception and évaluation d'architectures logiques." Phd thesis, INSA de Lyon, 2013. http://tel.archives-ouvertes.fr/tel-00967363.

Full text
Abstract:
Dans les années à venir, l'industrie de la microélectronique doit développer de nouvelles filières technologiques qui pourront devenir des successeurs ou des compléments de la technologie CMOS ultime. Parmi ces technologies émergentes relevant du domaine ''Beyond CMOS'', ce travail de recherche porte sur les transistors mono-électroniques (SET) dont le fonctionnement est basé sur la quantification de la charge électrique, le transport quantique et la répulsion Coulombienne. Les SETs doivent être étudiés à trois niveaux : composants, circuits et système. Ces nouveaux composants, utilisent à leur profit le phénomène dit de blocage de Coulomb permettant le transit des électrons de manière séquentielle, afin de contrôler très précisément le courant véhiculé. Ainsi, le caractère granulaire de la charge électrique dans le transport des électrons par effet tunnel, permet d'envisager la réalisation de transistors et de cellules mémoires à haute densité d'intégration, basse consommation. L'objectif principal de ce travail de thèse est d'explorer et d'évaluer le potentiel des transistors mono-électroniques double-grille métalliques (DG-SETs) pour les circuits logiques numériques. De ce fait, les travaux de recherches proposés sont divisés en trois parties : i) le développement des outils de simulation et tout particulièrement un modèle analytique de DG-SET ; ii) la conception de circuits numériques à base de DGSETs dans une approche ''cellules standards'' ; et iii) l'exploration d'architectures logiques versatiles à base de DG-SETs en exploitant la double-grille du dispositif. Un modèle analytique pour les DG-SETs métalliques fonctionnant à température ambiante et au-delà est présenté. Ce modèle est basé sur des paramètres physiques et géométriques et implémenté en langage Verilog-A. Il est utilisable pour la conception de circuits analogiques ou numériques hybrides SET-CMOS. A l'aide de cet outil, nous avons conçu, simulé et évalué les performances de circuits logiques à base de DG-SETs afin de mettre en avant leur utilisation dans les futurs circuits ULSI. Une bibliothèque de cellules logiques, à base de DG-SETs, fonctionnant à haute température est présentée. Des résultats remarquables ont été atteints notamment en terme de consommation d'énergie. De plus, des architectures logiques telles que les blocs élémentaires pour le calcul (ALU, SRAM, etc.) ont été conçues entièrement à base de DG-SETs. La flexibilité offerte par la seconde grille du DG-SET a permis de concevoir une nouvelle famille de circuits logiques flexibles à base de portes de transmission. Une réduction du nombre de transistors par fonction et de consommation a été atteinte. Enfin, des analyses Monte-Carlo sont abordées afin de déterminer la robustesse des circuits logiques conçus à l'égard des dispersions technologiques.
APA, Harvard, Vancouver, ISO, and other styles
30

Cain, Skaff Michael. "Évaluation de l'impact de la ventilation intégrée à des fenêtres intelligentes sur leurs performances écoénergétiques." Thesis, Université Laval, 2013. http://www.theses.ulaval.ca/2013/29732/29732.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
31

Benosman, Mohammed Ridha. "Conception et évaluation de performance d'un Bus applicatif, massivement parallèle et orienté service." Phd thesis, Conservatoire national des arts et metiers - CNAM, 2013. http://tel.archives-ouvertes.fr/tel-00957444.

Full text
Abstract:
Enterprise Service Bus (ESB) est actuellement l'approche la plus prometteuse pour l'implémentation d'une architecture orientée services (SOA : Service-Oriented Architecture) par l'intégration des différentes applications isolées dans une plateforme centralisée. De nombreuses solutions d'intégration à base d'ESB on été proposées, elles sont soit open-source comme : Mule, Petals, ou encore Fuse, soit propriétaires tels que : Sonic ESB, IBM WebSphere Message Broker, ou Oracle ESB. Cependant, il n'en existe aucune en mesure de traiter, à la fois des aspects : d'intégration et de traitement massivement parallèle, du moins à notre connaissance. L'intégration du parallélisme dans le traitement est un moyen de tirer profit des technologies multicœurs/multiprocesseurs qui améliorent considérablement les performances des ESBs.Toutefois, cette intégration est une démarche complexe et soulève des problèmes à plusieurs niveaux : communication, synchronisation, partage de données, etc.Dans cette thèse, nous présentons l'étude d'une nouvelle architecture massivement parallèle de type ESB.
APA, Harvard, Vancouver, ISO, and other styles
32

Boufroura, Hamza. "Synthèse et évaluation d'architectures polyaromatiques pour l’application au transport transmembranaire d'ions." Thesis, Université Paris-Saclay (ComUE), 2017. http://www.theses.fr/2017SACLV035.

Full text
Abstract:
Les travaux présentés dans ce manuscrit de thèse s’articulent autour de la synthèse de nouvelles architectures moléculaires tridimensionnelles et de l’évaluation de ces architectures en tant que canaux ioniques synthétiques capables de promouvoir le transport transmembranaire d’ions. La première partie concerne la mise au point d’une voie d’accès à ces édifices ayant comme plateforme centrale une brique naphtothiophène, aromatique ou partiellement hydrogénée, ainsi que l’étude prospective de la conversion de ces architectures en plateforme hélicoïdale. Les propriétés de ces édifices sont étudiées à l’état solide et par voie de calculs théoriques, permettant de mettre en avant des informations quant à la topologie globale adoptée ainsi que la compréhension de certaines réactivités observées. Une seconde partie est dédiée à la fonctionnalisation de ces édifices en molécules présentant des propriétés amphiphiles puis à l’étude de la capacité de ces dernières à s’insérer dans une bicouche lipidiques modèle afin de promouvoir le transport d’ions à travers la membrane via la formation de canaux ioniques dits synthétiques. En outre, des études alliant des analyses de spectrométrie de masse et des calculs théoriques sont présentés afin de comprendre les interactions intervenant dans le processus de transport d’ions à travers la membrane lipidique
The work presented in this manuscript is dealing with the synthesis of new three-dimensional molecular architectures and their evaluation as synthetic ion channels capable of promoting ion transmembrane transport. The first part aims at developing a straightforward approach to the synthesis of novel architectures based on a naphthothiophene platform, aromatic or partially hydrogenated, as well as the development of a strategy the convert 9-arylnaphthothiophene architectures into helical platforms. The properties of these molecules were studied in the solid state and were completed by theoretical calculations to highlight global topologies adopted. Theoretical calculations allowed us to understanding some reactivities observed. A second part is dedicated firstly to the functionalisation of these molecular architectures into amphiphilic molecules and secondly to study their abilities to insert themselves into a model bilayer lipid membrane by forming channels. Besides, in order to gain a better understanding of the interactions in play in the process, mass spectrometry analysis combined to theoretical calculations were set up
APA, Harvard, Vancouver, ISO, and other styles
33

Rugina, Ana-Elena. "Modélisation et évaluation de la sûreté de fonctionnement - De AADL vers les réseaux de Pétri stochastiques." Phd thesis, Institut National Polytechnique de Toulouse - INPT, 2007. http://tel.archives-ouvertes.fr/tel-00207502.

Full text
Abstract:
Conduire des analyses de sûreté de fonctionnement conjointement avec d'autres analyses au niveau architectural permet à la fois d'estimer les effets des décisions architecturales sur la sûreté de fonctionnement du système et de faire des compromis. Par conséquent, les industriels et les universitaires se concentrent sur la définition d'approches d'ingénierie guidées par des modèles (MDE) et sur l'intégration de diverses analyses dans le processus de développement. AADL (Architecture Analysis and Design Language) a prouvé son aptitude pour la modélisation d'architectures et ce langage est actuellement jugé efficace par les industriels dans de telles approches. Notre contribution est un cadre de modélisation permettant la génération de modèles analytiques de sûreté de fonctionnement à partir de modèles AADL dans lobjectif de faciliter l'obtention de mesures de sûreté de fonctionnement comme la fiabilité et la disponibilité. Nous proposons une approche itérative de modélisation. Dans ce contexte, nous fournissons un ensemble de sous-modèles génériques réutilisables pour des mécanismes de tolérance aux fautes. Le modèle AADL de sûreté de fonctionnement est transformé en un RdPSG (Réseau de Petri Stochastique Généralisé) en appliquant des règles de transformation de modèle. Nous avons mis en Suvre un outil de transformation automatique. Le RdPSG résultant peut être traité par des outils existants pour obtenir des mesures de sûreté defonctionnement. L'approche est illustrée sur un ensemble du SystèmeInformatique Français de Contrôle de Trafic Aérien.
APA, Harvard, Vancouver, ISO, and other styles
34

Zouggar, Salah. "Etude de la co-évolution produit/réseau de partenaires : évaluation de l'intégrabilité des partenaires potentiels pour accroître l’efficacité des projets de développement de produits." Thesis, Bordeaux 1, 2009. http://www.theses.fr/2009BOR13932/document.

Full text
Abstract:
La mise sur le marché de nouveaux produits constitue un enjeu stratégique pour les entreprises et notamment pour les PME&PMI. Les projets de développement de produits sont en règle générale bien maîtrisés localement au sein des entreprises mais sont confrontés à de réelles difficultés dès lors qu’ils requièrent une étroite collaboration des partenaires. L'idée force dans cette recherche est liée au fait que pour accroître l’efficacité de tout projet de développement de produits il est impératif de prendre en considération, le plus tôt possible, les contraintes liées au réseau de partenaires support à son exécution. Notre contribution s'inscrit dans le cadre de la méthodologie Co-Evolution Produit et réseau de partenaireS (CEPS) développée au sein de notre laboratoire. Cette thèse explore les dépendances entre les partenaires du réseau et propose une méthode d’évaluation a priori de l’intégrabilité de tout nouveau partenaire. Cette méthode est supportée par un prototype d'aide à la décision utilisable par les décideurs
Abstract
APA, Harvard, Vancouver, ISO, and other styles
35

Falcou, Joël. "Un cluster pour la vision temps réel : architecture, outils et application." Phd thesis, Université Blaise Pascal - Clermont-Ferrand II, 2006. http://tel.archives-ouvertes.fr/tel-00717444.

Full text
Abstract:
Cette thèse propose une solution logicielle au problème du développement et de l'exécution en temps réel d'applications de vision sur des machines de type cluster. Pour cela, avons développé deux bibliothèques utilisant des techniques d'évaluation partielle et de méta-programmation template qui permettent de programmer ces machines en s'attachant à rendre accessible les modèles de programmation parallèles à des développeurs issus de la communauté Vision pour qui ces problématiques ne sont pas triviales, tout en conservant des performances élevées. Ces deux bibliothèques : EVE, qui prend en charge la gestion du parallélisme SIMD, et QUAF, qui propose un modèle de programmation à base de squelettes algorithmiques pour la programmation sur machines MIMD, ont été validées par deux applications de vision de complexité réaliste, une reconstruction 3D et un suivi de piéton par filtrage particulaire, développées et exécutées sur un cluster dédié à la vision artificielle
APA, Harvard, Vancouver, ISO, and other styles
36

Martins, Goncalves Philippe. "Architectures de contrôle et middleware pour les réseaux de prochaines générations et évaluation de performances." Paris, ENST, 2000. http://www.theses.fr/2000ENST0024.

Full text
Abstract:
Deux approches sont actuellement envisagées pour aborder le développement de nouveaux services sur des réseaux à haut débits. La première approche est basée sur la technique réseau intelligent qu'elle étend, mais dont elle utilise des protocoles éprouves comme la signalisation inap et les services de tcap. Cette technique est fiable, extensible et performante. Elle a fait ses preuves dans le réseau téléphonique commute. Néanmoins le modèle réseau intelligent souffre de temps de développement de services trop important. Dans ces conditions, d'autres groupes tels que ieee p1520 ou tina proposent une autre approche basée sur les principes de la programmation par objets distribues et le paradigme rpc. Ces approches reposent sur l'utilisation de middleware tels que corba de l'omg et java, conçus pour un marché concurrentiel et permettent effectivement de prototyper rapidement de nouveaux services de télécommunications. Toutefois le déploiement d'une telle approche dans un réseau de grande taille, avec de très grands nombres d'appels et des contraintes fortes de performance est un problème loin d'être maitrise. Dans ce travail nous avons donc cherche à comprendre les contraintes de performance dans la réalisation d'une architecture d'exécution de service et à identifier quelles fonctions requièrent une grande réactivité et quelles fonctions nécessitent avant tout une grande flexibilité. Les fonctions du plan contrôle, responsables de l'établissement et du relâchement des appels, font partie de la première catégorie ou le critère est la réactivité. Les fonctions du plan service, responsables de l'exécution de la logique d'un service de telecommunication font partie de la deuxième catégorie ou le critère est la flexibilité. Tout le travail mène dans le cadre de cette thèse vise à définir un plan contrôle adapte aux besoins des nouveaux réseaux multimédia et à illustrer les relations existant entre le plan de service et le plan de contrôle.
APA, Harvard, Vancouver, ISO, and other styles
37

Norre, Sylvie. "Problèmes de placement de taches sur des architectures multiprocesseurs : méthodes stochastiques et évaluation des performances." Clermont-Ferrand 2, 1993. http://www.theses.fr/1993CLF21511.

Full text
Abstract:
Cette thèse traite du problème de placement de taches sur des architectures multiprocesseurs. Elle s'inscrit à la fois dans le cadre de la théorie de l'ordonnancement et dans le cadre de la modélisation et de l'évaluation des performances. Un ensemble de taches, non préemptives, de durées quelconques et liées par des contraintes de précédence, doit être éxecuté sur des processus identiques. Les coûts de communication inter-taches sont pris en compte ou non, le nombre de bus étant limite ou non. Dans tous les cas, le critère d'optimisation est la minimisation de la durée d'execution de l'ensemble des taches. Une première partie propose une méthodologie pour la modélisation des problèmes de placement à l'aide des réseaux de petri. Une seconde partie s'interesse a la résolution des problèmes de placement. Deux types d'ordonnancement sont étudiés: les ordonnancements déterministes (les durées d'exécution des taches et les coûts de communication inter-taches sont connus et constants) et les ordonnancements stochastiques (les durées d'exécution des taches et les coûts de communication inter-taches sont modelisés par des lois de probabilité). Pour chacun de ces problèmes, différentes méthodes de résolution sont proposées. Ces méthodes reposent sur le couplage d'algorithmes d'ordonnancement par liste et de méthodes stochastiques. Elles exploitent des modèles de simulation (déterministe ou stochastique) et des modèles markoviens. Ces modèles permettent d'évaluer à la fois la durée des ordonnancements et des modèles markoviens. Ces modèles permettent d'évaluer à la fois la durée des ordonnancements et les performances de l'architecture multiprocesseurs. L'outil retenu pour la construction et l'exploitation de ces modèles est le logiciel qnap2 (queueing network analysis package). Il faut remarquer que l'ensemble des méthodes et outils proposés peut s'appliquer à d'autres systèmes, tels que les systèmes de production
APA, Harvard, Vancouver, ISO, and other styles
38

Bounouar, Mohamed Amine. "Transistors mono-électroniques double-grille : modélisation, conception & évaluation d'architectures logiques." Thèse, Université de Sherbrooke, 2013. http://hdl.handle.net/11143/6117.

Full text
Abstract:
Dans les années à venir, l'industrie de la microélectronique doit développer de nouvelles filières technologiques qui pourront devenir des successeurs ou des compléments de la technologie CMOS ultime. Parmi ces technologies émergentes relevant du domaine « Beyond CMOS », ce travail de recherche porte sur les transistors mono-électroniques (SET) dont le fonctionnement est basé sur la quantification de la charge électrique, le transport quantique et la répulsion Coulombienne. Les SETs doivent être étudiés à trois niveaux : composants, circuits et système. Ces nouveaux composants, utilisent à leur profit le phénomène dit de blocage de Coulomb permettant le transit des électrons de manière séquentielle, afin de contrôler très précisément le courant véhiculé. En effet, l'émergence du caractère granulaire de la charge électrique dans le transport des électrons par effet tunnel, permet d'envisager la réalisation de remplaçants potentiels des transistors ou de cellules mémoire à haute densité d'intégration, basse consommation. L'objectif principal de ce travail de thèse est d'explorer et d'évaluer le potentiel des transistors mono-électroniques double-grille métalliques (DG-SETs) pour les circuits logiques numériques. De ce fait, les travaux de recherches proposés sont divisés en trois parties : i) le développement des outils de simulation et tout particulièrement un modèle analytique de DG-SET ; ii) la conception de circuits numériques à base de DG-SETs dans une approche « cellules standards » ; et iii) l'exploration d'architectures logiques versatiles à base de DG-SETs en exploitant la double-grille du dispositif. Un modèle analytique pour les DG-SETs métalliques fonctionnant à température ambiante et au-delà est présenté. Ce modèle est basé sur des paramètres physiques et géométriques et implémenté en langage Verilog-A. Il est utilisable pour la conception de circuits analogiques ou numériques hybrides SET-CMOS. A l'aide de cet outil, nous avons conçu, simulé et évalué les performances de circuits logiques à base de DG-SETs afin de mettre en avant leur utilisation dans les futurs circuits ULSI. Une bibliothèque de cellules logiques, à base de DG-SETs, fonctionnant à haute température est présentée. Des résultats remarquables ont été atteints notamment en termes de consommation d'énergie. De plus, des architectures logiques telles que les blocs élémentaires pour le calcul (ALU, SRAM, etc.) ont été conçues entièrement à base de DG-SETs. La flexibilité offerte par la seconde grille du DG-SET a permis de concevoir une nouvelle famille de circuits logiques flexibles à base de portes de transmission. Une réduction du nombre de transistors par fonction et de consommation a été atteinte. Enfin, des analyses Monte-Carlo sont abordées afin de déterminer la robustesse des circuits logiques conçus à l'égard des dispersions technologiques.
APA, Harvard, Vancouver, ISO, and other styles
39

Sarhan, Hossam. "Design methodology and technology assessment for high-desnity 3D technologies." Thesis, Université Grenoble Alpes (ComUE), 2015. http://www.theses.fr/2015GREAT134/document.

Full text
Abstract:
L'impact des interconnections d'un circuit intégré sur les performances et la consommation est de plus en plus important à partir du nœud CMOS 28 nm et au-delà, ayant pour effet de minimiser de plus ne plus la loi de Moore. Cela a motivé l'intérêt des technologies d'empilement 3D pour réduire l'effet des interconnections sur les performances des circuits. Les technologies d'empilement 3D varient suivant différents procédés de fabrication d'où l'on mettra en avant la technologie Trough Silicon Via (TSV) – Collage Cuivre-Cuivre (Cu-Cu) et 3D Monolithique. TSV et Cu-Cu présentent des diamètres d'interconnexions 3D de l'ordre de 10 µm tandis que le diamètre d'une interconnexion 3D Monolithique est 0.1 µm, c'est-à-dire cent fois plus petit. Un tel diamètre d'interconnexion créée de nouveaux challenge en terme de conception de circuit intégré numérique. Dans ce contexte, notre objectif est de proposer des méthodologies de conception de circuits 3D innovantes afin d'utiliser au mieux la densité d'intégration possible et d'évaluer efficacement les gains en performance, surface et consommation potentiels de ces différentes technologies d'empilement par rapport à la conception de circuit 2D.Trois contributions principales constituent cette thèse : La densité d'intégration offerte par les technologies d'empilement étudiées laisse le possibilité de revoir la topologie des cellules de bases en les concevant directement en 3D. C'est ce qui a été fait dans l'approche Cellule sur Buffer (Cell-on-Buffer – CoB), en empilant la fonction logique de base d'une cellule sur l'étage d'amplification. Les simulations montrent des gains substantiels par rapport aux circuits 2D. On a imaginé par la suite désaligner les niveaux d'alimentation de chaque tranche afin de créer une technique de Multi-VDD adaptée à l'empilement 3D pour réduire encore plus la consommation des circuits 3D.Dans un deuxième temps, le partitionnement grain fin des cellules a été étudié. En effet au niveau VLSI, quand on conçoit un circuit de plusieurs milliers voir million de cellules standard en 3D, se pose la question de l'attribution de telle ou telle cellule sur la tranche haute ou basse du circuit 3D afin d'accroitre au mieux les performances et consommation du circuit 3D. Une méthodologie de partitionnement physique est introduite pour cela.Enfin un environnement d'évaluation des performances et consommation des technologies 3D est présenté avec pour objectif de rapidement tester les gains possibles de telle ou telle technologie 3D tout en donnant des directives quant à l'impact des certains paramètres technologiques 3D sur les performances et consommation
Scaling limitations of advanced technology nodes are increasing and the BEOL parasitics are becoming more dominant. This has led to an increasing interest in 3D technologies to overcome such limitations and to continue the scaling predicted by Moore's Law. 3D technologies vary according to the fabrication process which creates a wide spectrum of technologies including Through-Silicon-VIA (TSV), Copper-to-Copper (CuCu) and Monolithic 3D (M3D). TSV and CuCu provide 3D contacts of pitch around 5-10um while M3D scales down 3D via pitch extremely to 0.11um. Such high-density capability of Monolithic 3D technology creates new design paradigms. In this context, our objective is to propose innovative design methodologies to well utilize M3D technology and introduce a technology assessment framework to evaluate different M3D technology parameters from design perspective.This thesis can be divided into three main contributions. As creating 3D standard cells become achievable thanks to M3D technology, a new 3D standard cell approach has been introduced which we call it ‘3D Cell-on-Buffer' (3DCoB). 3DCoB cells are created by splitting 2D cells into functioning gates and driving buffers stacked over each other. The simulation results show gain in timing performances compared to 2D. By applying an additionally Multi-VDD low-power approach, iso-performance power gain has been achieved. Afterwards cell-on-cell design approach has been explored where a partitioning methodology is needed to distribute cells between different tiers, i.e. determine which cell is placed on which tier. A physical-aware partitioning methodology has been introduced which improves power-performance-area results comparing to the state-of-the-art partitioning techniques. Finally a full high-density 3D technology assessment study is presented to explore the trade-offs between different 3D technologies, block complexities and partitioning methodologies
APA, Harvard, Vancouver, ISO, and other styles
40

Abdelatia, Belal. "Contribution à l'étude du confort visuel en lumière naturelle dans les établissements scolaires en Libye : évaluation qualitative et préconisations." Phd thesis, Université Sciences et Technologies - Bordeaux I, 2013. http://tel.archives-ouvertes.fr/tel-00905769.

Full text
Abstract:
La recherche propose de faire la démonstration qu'il existe une certaine relation de cause à effet entre la prise en compte des paramètres du confort visuel dans la conception des établissements scolaires et la performance scolaire des utilisateurs. Dans ce sens, nous essaierons de montrer comment la façon dont l'éclairage naturel sera introduit dans une salle de classe sera un facteur déterminant du confort visuel. En termes de méthodologie, nous avons retenu une approche qualitative qui permet de répondre, de manière simple et efficace, aux objectifs de cette recherche. Dans un premier temps, nous établissons un état de l'art du concept de l'éclairage naturel et du confort visuel en milieu scolaire. Ensuite, nous proposons une méthode d'analyse et d'évaluation qui s'articule autour de deux phases : - l'une consiste à analyser la qualité environnementale des établissements scolaires en Libye. L'objectif de cette phase est d'arriver à une classification typologique des salles de classe existantes dans notre zone d'étude ;- l'autre consiste à incorporer des simulations par maquette, qui nous permettent la collection des informations maximales dans le temps le plus court, par une série de photos enregistrant les conditions de confort visuel. Cela nous permet de montrer de façon simplifiée l'impact des caractéristiques des salles de classe étudiées, notamment leurs orientations, qui peuvent avoir une influence directe ou indirecte, positive ou négative, sur le confort visuel et par extension sur la performance scolaire de ces utilisateurs.D'après les résultats obtenus, nous avons constaté que les établissements scolaires en Libye, tels qu'ils sont conçus et réalisés actuellement, ne répondent guère aux besoins de leurs utilisateurs et ont sur eux un impact considérablement négatif. Enfin, à la lumière de l'ensemble des constatations, nous discutons les conséquences de nos résultats obtenus pour la conception architecturale des futurs établissements scolaires en Libye, et nous proposons ensuite d'établir une liste des recommandations appropriées au contexte climatique de la zone d'étude pour la conception des salles de classe, afin de les mettre à la disposition des architectes et des autorités pour d'éventuelles utilisations et approfondissements, qui permettent non seulement de rénover des édifices existants mais aussi d'améliorer la conception des futures constructions.
APA, Harvard, Vancouver, ISO, and other styles
41

Ndiaye, Moulaye A. A. "Évaluation de performance d’architecture de contrôle-commande en réseau dans un contexte incertain d’avant-vente." Thesis, Université de Lorraine, 2017. http://www.theses.fr/2017LORR0027/document.

Full text
Abstract:
Ce mémoire, réalisé dans le cadre d’une thèse sous convention CIFRE avec la société Schneider-Electric et l’Université de Lorraine à travers le laboratoire du CRAN, porte sur l’évaluation des performances temporelles des architectures de contrôle-commande distribuées sur un réseau de communication. Le besoin industriel s’exprime sous la forme d’un outil d’aide au dimensionnement des architectures en phase d’avant-vente caractérisée par une connaissance partielle de ces dernières. Le problème scientifique sous-jacent est relatif à la génération automatique des modèles servant de support à l’évaluation. En effet, l’évaluation des performances doit être réalisée pour un ensemble important d’architectures, dans un temps court, difficilement compatible avec une construction manuelle des modèles. Notre contribution porte sur la définition formelle, à l’aide de réseaux de Petri colorés et temporisés, d’un modèle « constructeur » d’architectures embarquant des mécanismes de configuration, d’instanciation et de paramétrage. Plusieurs algorithmes sont proposés pour, d’une part, construire automatiquement le modèle d’une architecture donnée, à partir d’une description formelle de sa topologie et d’une librairie de modèles d’équipements de contrôle-commande, et, d’autre part, pour générer les observateurs requis à partir d’une description formelle des performances à évaluer. Ces différents algorithmes ont été implantés dans un outil interfacé, d’une part avec l’outil Schneider de description des architectures, et, d’autre part avec le simulateur de l’outil CPN Tools qui fournit une estimation des performances via des simulations de Monte-Carlo. L’intérêt de cette approche a été illustrée sur la base de quelques architectures types fournies par la société Schneider-Electric
This PhD dissertation, supported by CIFRE convention between the company Schneider-Electric and the University of Lorraine through the CRAN laboratory, deals with the assessment of temporal performances for a networked distributed control system. The industrial need was the development of a quotation and sizing tool of industrial control architecture during pre-sales stage. This stage is characterized by limited information about the process and the customers’ needs. The underlying scientific problematic was the ability to generate automatically models serving as support for the evaluation. In fact, performance assessment is realized for a wide range of architecture during a small amount of time, which is not compliant with a manual definition of the models. Our contribution is mainly based on a formal definition of a “builder” model with Colored and Timed Petri Nets which embeds mechanisms for configuration, instantiation and parameters setting of the architecture models. Several algorithms have been proposed for firstly build automatically the architecture Petri Nets model from a formal description of the topology and from a component model library and, secondly, for generating performance observers. Theses algorithms have been implemented on a tool gathering a user interface developed by Schneider –Electric and the Petri Nets simulator called CPN Tools which provides the performance assessment through Monte-Carlo simulation. The added value of this approach has been illustrated through case studies provided by Schneider-Electric
APA, Harvard, Vancouver, ISO, and other styles
42

Roque, Damien. "Modulations multiporteuses WCP-OFDM : évaluation des performances en environnement radiomobile." Phd thesis, Université de Grenoble, 2012. http://tel.archives-ouvertes.fr/tel-00789990.

Full text
Abstract:
De nombreuses applications de communications numériques font face à des canaux de transmission sélectifs en temps et en fréquence que nous pouvons assimiler à des systèmes linéaires variants dans le temps. À travers ces travaux de thèse, nous montrons que les modulations multiporteuses suréchantillonnées constituent une technique de transmission adaptée à ce type d'environnement. Cependant, la complexité algorithmique des émetteurs-récepteurs présente un frein majeur à leur adoption. Fort de ce constat, nous nous intéressons à la sous-famille des modulations multiporteuses suréchantillonnées à filtres courts (WCP-OFDM), dont la complexité algorithmique est comparable à celle de l'OFDM avec préfixe cyclique. Après avoir exprimé les conditions de reconstruction parfaite, nous développons des égaliseurs de faible complexité et étudions la problématique du rapport de puissance crête sur puissance moyenne du signal en sortie d'émetteur. Enfin, nous analysons les performances de ces modulations à travers plusieurs scénarios de propagation radiomobile. Les résultats de simulation confirment l'intérêt du WCP-OFDM, associé à des filtres prototypes bien localisés en temps et en fréquence pour faire face aux canaux doublement sélectifs.
APA, Harvard, Vancouver, ISO, and other styles
43

Benarif, Samir. "Plate-forme multi-agent pour la reconfiguration dynamique des architectures logicielles." Versailles-St Quentin en Yvelines, 2006. http://www.theses.fr/2006VERS0038.

Full text
Abstract:
La complexité de plus en plus croissante des applications distribuées et embarquées innovantes implique de spécifier, de concevoir et de développer des architectures logicielles capables de réagir aux événements et d'exécuter des changements architecturaux de façon autonome. Le processus d’adaptation pour reconfigurer une architecture doit d’une part, utiliser un certain nombre de techniques, qui peuvent être fortement spécialisées et d’autre part, assurer que les propriétés de qualité de l'architecture sont maintenues. Dans notre thèse, l’idée novatrice consiste à introduire des composants intelligents particuliers ou agents dans une plate-forme de contrôle de l’architecture d’un logiciel. Ces agents, de manière autonome, surveillent l'architecture, exécutent la reconfiguration et l'adaptent aux changements structurels du contexte de l’application. Cette plate-forme contrôle les différents composants et connecteurs de l’architecture et peut ainsi la reconfigurer, l’adapter et la faire évoluer à partir de stratégies spécifiques prés sauvegardés dans la base de connaissances de la plate-forme
A dynamic change to architecture is an active area of research within the software architecture community. The objective of all architecture reconfiguration, adaptation and evolution is the improvement of the quality attributes of the software architecture. Only recently the reconfiguration of software architecture at runtime has grown up considerably for the construction of reliable evolutionary systems. The structure of these systems is dynamic and continuously changing. Consequently, architectures must have the ability to react to events and perform architectural changes autonomously. In this thesis, we provide a new approach based on software multi-agent platform. Such agents are used to supervise the architecture, gather information from it and its environment, capture dynamic changes, and manage them. They monitor the components dynamically and adapt them to structural changes in the architecture. They evaluate dynamically the quality attributes of the architecture. This evaluation will ensure the correctness, robustness, security, availability, etc. As the changes take place so that the system conforms to its architecture and remains in conformance throughout its lifetime
APA, Harvard, Vancouver, ISO, and other styles
44

Harbaoui, Ahmed. "Vers une modélisation et un dimensionnement automatique des systèmes répartis." Phd thesis, Université de Grenoble, 2011. http://tel.archives-ouvertes.fr/tel-00649967.

Full text
Abstract:
De nos jours, les systèmes distribués sont caractérisés par une complexité croissante de l'architecture, des fonctionnalités et de la charge soumise. Cette complexité induit souvent une perte de la qualité de service offerte, ou une saturation des ressources, voire même l'indisponibilité des services en ligne, en particulier lorsque la charge est importante. Afin d'éviter les désagrèments causés par d'importantes charges et remplir le niveau attendu de la qualité de service, les systèmes nécessitent une auto-gestion, en optimisant par exemple un tier ou en le renforçant à travers la réplication. Cette propriété autonome requiert une modélisation des performances de ces systèmes. Visant cet objectif, nous développons un framework basé sur une méthodologie théorique et expérimentale d'identification automatique de modèle et de dimensionnement, fournissant en premier un modèle de réseau de file d'attente pour un système distribué. Ensuite, ce Modèle est utilisé au sein de notre framwork pour dimensionner le système à travers une analyse ou une simulation du réseau de file d'attente.
APA, Harvard, Vancouver, ISO, and other styles
45

Boyer, Grâce. "Évaluation d’indicateurs de sûreté de fonctionnement d’architectures de contrôle-commande dans un contexte dynamique et incertain." Electronic Thesis or Diss., Université de Lorraine, 2021. http://www.theses.fr/2021LORR0029.

Full text
Abstract:
Ce mémoire, réalisé dans le cadre d’une convention CIFRE avec la société Schneider Electric, porte sur l’évaluation sur l’évaluation d’indicateurs de sûreté de fonctionnement des architectures de contrôle-commande. Le problème industriel posé est un problème d’aide au dimensionnement des architectures en réponse à des exigences de performances. Les problèmes scientifiques sont relatifs, d’une part, à la génération automatique des modèles support à l’évaluation pour un ensemble d’architectures dans la mesure où leur construction manuelle ne permet pas de faire face à la multiplicité des architectures dans des délais contraints, et, d’autre part, à la prise en compte des phénomènes de dégradation dans les modèles dysfonctionnels des architectures. Le choix du formalisme de modélisation s’est porté sur les réseaux de Petri colorés et temporisés (CPN) qui permet notamment la hiérarchisation des modèles et la prise en compte de phénomènes temporisés dont les durées peuvent suivre des distributions de probabilité. Notre contribution se présente sous la forme d’une méthodologie permettant la construction automatique d’un modèle CPN d’architecture par instanciation d’un ensemble de composants élémentaires et de la définition d’observateurs génériques couvrant les besoins exprimés et qui permettent de déterminer les indicateurs de sûreté de fonctionnement tels que la fiabilité, la disponibilité du système, son MTTF, le nombre de défaillances mais aussi des facteurs d’importance permettant d’orienter les choix des concepteurs en phase d’élaboration en réponse à un appel d’offre
This PhD dissertation, supported by a CIFRE agreement with the Schneider Electric company, deals with the dependability performances assessment of industrial control system (ICS) architectures. The industrial challenge is to provide a tool able to guide on the sizing of ICS architectures in terms of performances. The scientific challenge in another hand is double. Firstly, we must generate automatically the models which are the core of the performance evaluation for a set of ICS architecture, since their manual modelling is challenging based on the wide variety of architecture to model and the limited amount of time and resources. Secondly, we must consider the degradation phenomena in those architectures. The selected modelling formalism is the coloured and timed Petri nets (CPN) which allows to represent model hierarchically, to handle random time delays which help on characterizing the components lifetime. Our contribution is on the development of a method for automatically generate a CPN model of ICS by instantiating a set of elementary components and defining generic observers, covering dependability indicators such as system reliability, availability, MTTF, number of failures and importance measures, and allowing to guide the choices of system integrators during pre-sales stage
APA, Harvard, Vancouver, ISO, and other styles
46

Ye, Fan. "Nouveaux algorithmes numériques pour l’utilisation efficace des architectures multi-cœurs et hétérogènes." Thesis, Lille 1, 2015. http://www.theses.fr/2015LIL10169/document.

Full text
Abstract:
Cette étude est motivée par les besoins réels de calcul dans la physique des réacteurs. Notre objectif est de concevoir les algorithmes parallèles, y compris en proposant efficaces noyaux algébriques linéaires et méthodes numériques parallèles.Dans un environnement many-cœurs en mémoire partagée tel que le système Intel Many Integrated Core (MIC), la parallélisation efficace d'algorithmes est obtenue en termes de parallélisme des tâches à grain fin et parallélisme de données. Pour la programmation des tâches, deux principales stratégies, le partage du travail et vol de travail ont été étudiées. A des fins de généralité et de réutilisation, nous utilisons des interfaces de programmation parallèle standard, comme OpenMP, Cilk/Cilk+ et TBB. Pour vectoriser les tâches, les outils disponibles incluent Cilk+ array notation, pragmas SIMD, et les fonctions intrinsèques. Nous avons évalué ces techniques et proposé un noyau efficace de multiplication matrice-vecteur dense. Pour faire face à une situation plus complexe, nous proposons d'utiliser le modèle hybride MPI/OpenMP pour la mise en œuvre de noyau multiplication matrice-vecteur creux. Nous avons également conçu un modèle de performance pour modéliser les performances sur MICs et ainsi guider l'optimisation. En ce qui concerne la résolution de systèmes linéaires, nous avons proposé un solveur parallèle évolutif issue de méthodes Monte Carlo. Cette méthode présente un degré de parallélisme abondant, qui s’adapte bien à l'architecture multi-coeurs. Pour répondre à certains des goulots d'étranglement fondamentaux de ce solveur, nous proposons un modèle d'exécution basée sur les tâches qui résout complètement ces problèmes
This study is driven by the real computational needs coming from different fields of reactor physics, such as neutronics or thermal hydraulics, where the eigenvalue problem and resolution of linear system are the key challenges that consume substantial computing resources. In this context, our objective is to design and improve the parallel computing techniques, including proposing efficient linear algebraic kernels and parallel numerical methods. In a shared-memory environment such as the Intel Many Integrated Core (MIC) system, the parallelization of an algorithm is achieved in terms of fine-grained task parallelism and data parallelism. For scheduling the tasks, two main policies, the work-sharing and work-stealing was studied. For the purpose of generality and reusability, we use common parallel programming interfaces, such as OpenMP, Cilk/Cilk+, and TBB. For vectorizing the task, the available tools include Cilk+ array notation, SIMD pragmas, and intrinsic functions. We evaluated these techniques and propose an efficient dense matrix-vector multiplication kernel. In order to tackle a more complicated situation, we propose to use hybrid MPI/OpenMP model for implementing sparse matrix-vector multiplication. We also designed a performance model for characterizing performance issues on MIC and guiding the optimization. As for solving the linear system, we derived a scalable parallel solver from the Monte Carlo method. Such method exhibits inherently abundant parallelism, which is a good fit for many-core architecture. To address some of the fundamental bottlenecks of this solver, we propose a task-based execution model that completely fixes the problems
APA, Harvard, Vancouver, ISO, and other styles
47

Tomasik, Joanna. "Garantie de la qualité de service et évaluation de performance des réseaux de télécommunications." Habilitation à diriger des recherches, Université Paris Sud - Paris XI, 2012. http://tel.archives-ouvertes.fr/tel-00661575.

Full text
Abstract:
Notre recherche porte sur des méthodes pour garantir la QoS dans les réseaux filaires classiques, optiques, ad hoc et le réseau global Internet au niveau des domaines. Afin de valider les méthodes proposées, nous créons des modèles à partir des outils de la théorie des files d'attente. Nous étudions les méthodes analytiques et les méthodes numériques afin de traiter les générateurs de chaînes de Markov. Nous utilisons également dans nos études la simulation à évènements discrets. Le travail sur le réseau inter-domaine a nécessité le développement d'un outil pour la génération de topologies aléatoires avec une hiérarchie correspondant à celle observée dans l'Internet.
APA, Harvard, Vancouver, ISO, and other styles
48

Iberraken, Dimia. "Safe Trajectories and Sequential Bayesian Decision-Making Architecture for Reliable Autonomous Vehicle Navigation." Thesis, Université Clermont Auvergne‎ (2017-2020), 2020. http://www.theses.fr/2020CLFAC043.

Full text
Abstract:
Les dernières avancées en matière de conduite de véhicules autonomes (VAs) ont fait apparaître toute l'importance de garantir la fiabilité complète des manœuvres que doivent effectuer les VAs, y compris dans des environnements/situations très dynamiques et incertains. Cet objectif devient encore plus ardu en raison du caractère unique de chaque situation/condition de circulation. Pour faire face à toutes ces configurations très contraignantes et complexes, les VAs doivent disposer d'une architecture de contrôle appropriée avec des Stratégies d'Evaluation et de Gestion des Risques (SEGR) fonctionnant en temps-réel et d'une manière fiable. Ces SEGR ciblées doivent conduire à une réduction drastique des risques de conduite. Théoriquement et de maniéré systémique, ces SEGR doivent aboutir à un risque de conduite inférieur à tout comportement de conduite humaine. En conséquent, il est également question de réduire la nécessité d'effectuer des tests très poussés, qui peuvent prendre plusieurs mois/années pour au final ne pas avoir de preuves formelles de la viabilité et de la sûreté complète du système. Ainsi, les travaux présentés dans cette thèse de doctorat ont pour but d'avoir une méthodologie prouvable pour les SGER des VAs.Cette thèse porte sur l'ensemble du processus, en partant de l'évaluation des risques, de la planification de la trajectoire jusqu'à la prise de décision et au contrôle du véhicule autonome. En premier lieu, une architecture multi-contrôleurs probabiliste (Probabilistic Multi-Controller Architecture P-MCA) est conçue pour une conduite autonome sûre en présence d'incertitudes. Cette architecture est composé de plusieurs modules interconnectés qui sont responsables de : l'évaluation du risque de collision avec tous les véhicules observés tout en considérant les prévisions de leurs trajectoires ; la planification des différentes manœuvres de conduite ; la prise de décision sur les actions les plus appropriées à réaliser ; le contrôle du mouvement du véhicule ; l'interruption en toute sécurité de la manœuvre engagée si nécessaire (en raison par exemple d'un changement soudain de l'environnement routier) ; et en dernier recours la planification des actions évasives à défaut d'un autre choix. L'évaluation des risques proposée est basée sur une stratégie à deux étapes. La première étape consiste à analyser la situation actuelle de conduite et à prévoir les éventuelles collisions. Cette étape est réalisée en tenant compte de plusieurs contraintes dynamiques et des conditions de circulation connues au moment de la planification. La deuxième étape est appliquée en temps-réel, durant la réalisation de la manœuvre, où un mécanisme de vérification de la sécurité est activé pour quantifier les risques et la criticité de la situation de conduite sur le temps restant pour réaliser la manœuvre. La stratégie décisionnelle est basée sur un réseau Bayésien de décision à niveaux séquentiels pour la sélection et la vérification des manœuvres (Sequential Decision Networks for Maneuver Selection and Verification SDN-MSV) et constitue un module essentiel de l'architecture P-MCA. Ce module est conçu pour gérer plusieurs manœuvres routières dans un environnement incertain. Il utilise l'évaluation des étapes de sécurité définies pour proposer des actions discrètes qui permettent de : réaliser des manœuvres appropriées dans une situation de trafic donnée, il fournit également une rétrospective de la sécurité, cette dernière actualise en temps-réel les mouvements de l'égo-véhicule en fonction de la dynamique de l'environnement, afin de faire face à toute situation dangereuse et risquée soudaine. (...)
Recent advances in Autonomous Vehicles (AV) driving raised up all the importance to ensure the complete reliability of AV maneuvers even in highly dynamic and uncertain environments/situations. This objective becomes even more challenging due to the uniqueness of every traffic situation/condition. To cope with all these very constrained and complex configurations, AVs must have appropriate control architecture with reliable and real-time Risk Assessment and Management Strategies (RAMS). These targeted RAMS must lead to reduce drastically the navigation risks (theoretically, lower than any human-like driving behavior), with a systemic way. Consequently, the aim is also to reduce the need for too extensive testing (which could take several months and years for each produced RAMS without at the end having absolute prove). Hence the goal in this Ph.D. thesis is to have a provable methodology for AV RAMS. This dissertation addresses the full pipeline from risk assessment, path planning to decision-making and control of autonomous vehicles. In the first place, an overall Probabilistic Multi-Controller Architecture (P-MCA) is designed for safe autonomous driving under uncertainties. The P-MCA is composed of several interconnected modules that are responsible for: assessing the collision risk with all observed vehicles while considering their trajectories' predictions; planning the different driving maneuvers; making the decision on the most suitable actions to achieve; control the vehicle movement; aborting safely the engaged maneuver if necessary (due for instance to a sudden change in the environment); and as last resort planning evasive actions if there is no other choice. The proposed risk assessment is based on a dual-safety stage strategy. The first stage analyzes the actual driving situation and predicts potential collisions. This is performed while taking into consideration several dynamic constraints and traffic conditions that are known at the time of planning. The second stage is applied in real-time, during the maneuver achievement, where a safety verification mechanism is activated to quantify the risks and the criticality of the driving situation beyond the remaining time to achieve the maneuver. The decision-making strategy is based on a Sequential Decision Networks for Maneuver Selection and Verification (SDN-MSV) and corresponds to an important module of the P-MCA. This module is designed to manage several road maneuvers under uncertainties. It utilizes the defined safety stages assessment to propose discrete actions that allow to: derive appropriate maneuvers in a given traffic situation and provide a safety retrospection that updates in real-time the ego-vehicle movements according to the environment dynamic, in order to face any sudden hazardous and risky situation. In the latter case, it is proposed to compute the corresponding low-level control based on the Covariance Matrix Adaptation Evolution Strategy (CMA-ES) that allows the ego-vehicle to pursue the advised collision-free evasive trajectory to avert an accident and to guarantee safety at any time.The reliability and the flexibility of the overall proposed P-MCA and its elementary components have been intensively validated, first in simulated traffic conditions, with various driving scenarios, and secondly, in real-time with the autonomous vehicles available at Institut Pascal
APA, Harvard, Vancouver, ISO, and other styles
49

Girard, Marion. "Étude de la précontrainte par post-tension par évaluation non destructive (END) : application de la méthode impact-écho (IE) combinée à l'endoscopie." Thesis, Université Laval, 2013. http://www.theses.ulaval.ca/2013/28573/28573.pdf.

Full text
Abstract:
L’auscultation des ouvrages en béton précontraint à l’aide de la post-tension pose un défi particulier puisque l’armature de précontrainte de même que les gaines de précontrainte sont noyées dans le béton et deviennent, par le fait même, difficilement accessibles pour inspection. L’état des armatures de précontrainte (présence de corrosion) de même que la qualité de l’injection au coulis de ciment des gaines (présence de vides de coulis) sont pourtant des indicateurs importants de la durabilité des ouvrages. Afin d’apporter un éclairage sur l’auscultation de tels ouvrages, la présente étude propose d’abord une revue de la littérature sur les méthodes d’évaluation non destructives et commente leur applicabilité dans le contexte des ouvrages précontraints. Suite à cette étude, la méthode de l’impact écho a été sélectionnée puis mise à profit pour l’auscultation de corps d’épreuve fabriqués en laboratoire ainsi que pour l’auscultation de portions de poutres de ponts démantelés. L’endoscopie, considérée comme une méthode semi-destructive, est venue en appui à la méthode de l’impact écho et a été utilisée sur les mêmes éléments de béton. Suite à la description du processus méthodologique utilisé et des échantillons de béton à disposition, un chapitre entier est dédié aux résultats typiques observés. Les conclusions de l’étude montrent que la pratique d’endoscopies sur les ouvrages précontraints est particulièrement bien adaptée à l’observation de vides de coulis dans les gaines de post-tension et à l’observation de l’état des câbles de précontrainte. Dans le cas de l'impact-écho l’étude a montré que, bien qu’il existe un potentiel de détection des vides de coulis, dans les situations de pièces massives et complexes du fait de la présence de multiples câbles, de la présence de dégradations ou d’imperfections géométriques, l’interprétation des résultats s’avère difficile. Le traitement des résultats (signaux) demande à être plus approfondi avant que la méthode impact écho puisse être utilisée de façon courante sur des éléments massifs.
Auscultation of post-tensioned concrete structures represents a particular challenge because the prestressing reinforcement as well as prestressing ducts are embedded in the concrete and become, thereby, mostly inaccessible to Inspection. However, the condition of the tendons (presence of corrosion) as well as the quality of the grout injection of the ducts (presence of voids) are important indicators of a structure durability. In order to shed light upon auscultation of post-tensioned structures, this study first proposes a review of the literature on nondestructive methods and discusses their applicability in the context of prestressed structure assessment. Based on the review, the impact echo method was selected and utilized for the auscultation of test bodies, manufactured in laboratory, as well as for the auscultation of dismantled post-tensioned bridge sampled beams. Endoscopy, considered a semi-destructive testing method, came in support to the impact echo method and was used on the same concrete test bodies or samples. Following the description of the methodology related to the two assessment methods and the description of the concrete samples available, an entier chapter is dedicated to typical experimental results. The findings of the study show that the practice of endoscopy is particularly well suited to the observation of injection voids or of the prestressed reinforcement state in the grouted ducts.. In the case of the impact-echo the study showed that, although there is a potential of grout void detections, in situations where massive and complex parts are involved (due to the presence of multiple cables, the presence of damage or geometrical imperfections), the interpretation of results is difficult. The treatment of the mesures (signals) needs to be further developed before the impact echo method can be used routinely on large elements.
APA, Harvard, Vancouver, ISO, and other styles
50

Oikonomopoulou, Apostolia. "APPROCHES NUMERIQUES POUR L'ETUDE DU COMPORTEMENT DES STRUCTURES MAÇONNEES ANCIENNES : Un outil basé sur le Calcul à la Rupture et la visualisation graphique." Phd thesis, Université Paris-Est, 2009. http://tel.archives-ouvertes.fr/tel-00493588.

Full text
Abstract:
L'ingénieur et l'architecte, confrontés à la large demande pour la préservation des structures historiques et monumentales, ont besoin d'une approche transdisciplinaire et efficace pour le traitement de ces systèmes complexes. Les travaux de recherche proposés dans cette thèse s'inscrivent à un effort de développement d'un outil informatique servant à une évaluation préliminaire de la stabilité des structures maçonnées anciennes, qui est compréhensible par des utilisateurs travaillant dans diverses disciplines. Etant donné que le comportement statique global de ce type de structures pose plutôt un problème d'équilibre, le théorème statique du Calcul à Rupture est utilisé afin de vérifier la stabilité d'une structure maçonnée sous chargements statiques ou quasi-statiques. La méthode proposée correspond aux systèmes structuraux bidimensionnels ou pseudo-tridimensionnels (symétries axiales) qui comportent les éléments typiques de l'architecture médiévale combinés de façons variables.
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography