Um die anderen Arten von Veröffentlichungen zu diesem Thema anzuzeigen, folgen Sie diesem Link: Chemin de données du pipeline.

Dissertationen zum Thema „Chemin de données du pipeline“

Geben Sie eine Quelle nach APA, MLA, Chicago, Harvard und anderen Zitierweisen an

Wählen Sie eine Art der Quelle aus:

Machen Sie sich mit Top-35 Dissertationen für die Forschung zum Thema "Chemin de données du pipeline" bekannt.

Neben jedem Werk im Literaturverzeichnis ist die Option "Zur Bibliographie hinzufügen" verfügbar. Nutzen Sie sie, wird Ihre bibliographische Angabe des gewählten Werkes nach der nötigen Zitierweise (APA, MLA, Harvard, Chicago, Vancouver usw.) automatisch gestaltet.

Sie können auch den vollen Text der wissenschaftlichen Publikation im PDF-Format herunterladen und eine Online-Annotation der Arbeit lesen, wenn die relevanten Parameter in den Metadaten verfügbar sind.

Sehen Sie die Dissertationen für verschiedene Spezialgebieten durch und erstellen Sie Ihre Bibliographie auf korrekte Weise.

1

Ait, Bensaid Samira. „Formal Semantics of Hardware Compilation Framework“. Electronic Thesis or Diss., université Paris-Saclay, 2023. http://www.theses.fr/2023UPASG085.

Der volle Inhalt der Quelle
Annotation:
Les analyses statiques de pire temps d’exécution sont utilisées pour garantir les délais requis pour les systèmes critiques. Afin d’estimer des bornes précises sur ces temps d’exécution, ces analyses temporelles nécessitent des considérations sur la (micro)- architecture. Habituellement, ces modèles de micro-architecture sont construits à la main à partir des manuels des processeurs. Cependant, les initiatives du matériel libre et les langages de description de matériel de haut niveau (HCLs), permettent de réaborder la problématique de la génération automatique de ces modèles de micro-architecture, et plus spécifiquement des modèles de pipeline. Nous proposons un workflow qui vise à construire automatiquement des modèles de chemin de données de pipeline à partir de conceptions de processeurs décrites dans des langages de contruction de matériel (HCLs). Notre workflow est basé sur la chaine de compilation matériel Chisel/FIRRTL. Nous construisons au niveau de la représentation intermédiaire les modèles de pipeline du chemin de données. Notre travail vise à appliquer ces modèles pour prouver des propriétés liées à la prédictibilité temporelle. Notre méthode repose sur la vérification formelle. Les modèles générés sont ensuite traduits en modèles formels et intégrés dans une procédure existante basée sur la vérification de modèles pour détecter les anomalies de temps. Nous utilisons le langage de modélisation et de vérification TLA+ et expérimentons notre analyse avec plusieurs processeurs RISC-V open-source. Enfin, nous faisons progresser les études en évaluant l’impact de la génération automatique à l’aide d’une série de critères synthétiques
Static worst-case timing analyses are used to ensure the timing deadlines required for safety-critical systems. In order to derive accurate bounds, these timing analyses require precise (micro-)architecture considerations. Usually, such micro-architecture models are constructed by hand from processor manuals.However, with the open-source hardware initiatives and high-level Hardware Description Languages (HCLs), the automatic generation of these micro-architecture models and, more specifically, the pipeline models are promoted. We propose a workflow that aims to automatically construct pipeline datapath models from processor designs described in HCLs. Our workflow is based on the Chisel/FIRRTL Hardware Compiler Framework. We build at the intermediate representation level the datapath pipeline models. Our work intends to prove the timing properties, such as the timing predictability-related properties. We rely on the formal verification as our method. The generated models are then translated into formal models and integrated into an existing model checking-based procedure for detecting timing anomalies. We use TLA+ modeling and verification language and experiment with our analysis with several open-source RISC-V processors. Finally, we advance the studies by evaluating the impact of automatic generation through a series of synthetic benchmarks
APA, Harvard, Vancouver, ISO und andere Zitierweisen
2

Tang, Zhao Hui. „Optimisation de requêtes avec l'expression de chemin pour les bases de données orientées objets“. Versailles-St Quentin en Yvelines, 1996. http://www.theses.fr/1996VERS0009.

Der volle Inhalt der Quelle
Annotation:
Bien que beaucoup de problèmes à résoudre dans un système de bases de données objet sont similaires à ceux existant dans un système relationnel, il y a aussi plusieurs problèmes qui sont uniques. En particulier, chaque objet a un identifiant unique (oid) qui peut être utilisé pour référencer un autre objet. Cela fournit l'aspect navigation de sgbdo. Une requête objet peut inclure une expression de chemin pour la traversée de plusieurs collections. Le problème d'optimiser l'expression de chemin ressemble à celui du traitement de la jointure en système relationnel, mais il est plus complexe dans les systèmes objets. Cette thèse propose quatre approches pour aborder ce problème. D'abord, elle compare les performances de différentes méthodes de traversée de chemin, y compris la navigation, la jointure en avant ou en arrière, et la jointure par valeur, etc. , dans différentes situations. Elle propose une règle heuristique pour choisir éventuellement un opérateur naire. La deuxième partie de la thèse propose deux nouveaux opérateurs algébriques de navigation pour évaluer des expressions de chemin linéaires et en étoiles. Différentes stratégies de navigation sont étudiées. La troisième partie de la thèse introduit une adaptation de l'algorithme génétique pour explorer l'espace de recherche de plan d'exécution génère par une expression de chemin. Différents algorithmes combinatoires sont comparés. Enfin, cette thèse propose une méthode pour calibrer les bases de données objets en utilisant un modèle de coût générique, en particulier pour déduire le coût des traversées de chemins
APA, Harvard, Vancouver, ISO und andere Zitierweisen
3

Mohamed, Saleem Mohamed Ashick. „Pipeline intégratif multidimensionnel d'analyse de données NGS pour l'étude du devenir cellulaire“. Thesis, Strasbourg, 2015. http://www.theses.fr/2015STRAJ072/document.

Der volle Inhalt der Quelle
Annotation:
L'épigénomique pourrait nous aider à mieux comprendre pourquoi différents types cellulaires montrent différents comportements. Puisque, dans le cadre d'études épigénétiques, il peut êtrenécessaire de comparer plusieurs profils de séquençage, il y a un besoin urgent en nouvelles approches et nouveaux outils pour pallier aux variabilités techniques sous-jacentes. Nous avons développé NGS-QC, un système de contrôle qualité qui détermine la qualité de données et Epimetheus, un outil de normalisation d'expériences de modifications d'histones basé sur les quartiles afin de corriger les variations techniques entre les expériences. Enfin, nous avons intégré ces outils dans un pipeline d'analyse allèle-spécifique afin de comprendre le statut épigénétique de XCI dans le cancer du sein où la perte du Xi est fréquent. Notre analyse a dévoilé des perturbations dans le paysage épigénétique du X et des réactivations géniques aberrantes dans le Xi, dont celles associées au développement du cancer
Epigenomics would help us understand why various cells types exhibit different behaviours. Aberrant changes in reversible epigenetic modifications observed in cancer raised focus towards epigenetic targeted therapy. As epigenetic studies may involve comparing multi-profile sequencing data, thereis an imminent need for novel approaches and tools to address underlying technical variabilities. Wehave developed NGS-QC, a QC system to infer the experimental quality of the data and Epimetheus, a quantile-based multi-profile normalization tool for histone modification datasets to correct technical variation among samples. Further, we have employed these developed tools in an allele-specific analysis to understand the epigenetic status of X chromosome inactivation in breast cancer cells where disappearance of Xi is frequent. Our analysis has revealed perturbation in epigenetic landscape of X and aberrant gene reactivation in Xi including the ones that are associated with cancer promotion
APA, Harvard, Vancouver, ISO und andere Zitierweisen
4

Couchot, Alain. „Analyse statique de la terminaison des règles actives basée sur la notion de chemin maximal“. Paris 12, 2001. http://www.theses.fr/2001PA120042.

Der volle Inhalt der Quelle
Annotation:
Les règles actives sont destinées à doter les bases de données d'un comportement réactif. Une règle active se compose de trois éléments principaux: l'événement, la condition, l'action. Il est souhaitable de garantir a priori la terminaison d'un ensemble de règles actives. Le but de cette thèse est d'augmenter le nombre de situations de terminaison détectées par l'analyse statique. Nous cernons tout d'abord un certain nombre de limitations des méthodes d'analyse statique de la terminaison des règles actives proposées par le passé. Nous développons ensuite un algorithme d'analyse statique de la terminaison basé sur la notion de chemin maximal d'un noeud. La notion de chemin maximal est destinée à remplacer la notion de cycle, employée par les algorithmes de terminaison antérieurs. Nous présentons un certain nombre d'applications et d'extensions de notre algorithme de terminaison. Ces extensions et applications concernent les règles non incluses dans un cycle, les conditions composites, les événements composites, les priorités entre règles, ainsi que la conception modulaire de règles actives. Nous présentons également présenté une extension significative de la méthode RTG, permettant d'inclure dans une formule de déclenchement des atomes dépendants de la base de données
The active rules are intended to enrich the databases with a reactive behaviour. An active rule is composed of three main components: the event, the condition, the action. It is desired to guarantee a priori the termination of a set of active rules. The aim of this thesis is to increase the number of termination situations detected by the static analysis. We first determine some restrictions of the previous static analysis methods. We develop then an algorithm for static analysis of termination based on the notion of maximal path of a node. The notion of maximal path is intended to replace the notion of cycle, used by the previous termination algorithms. We present some applications and extensions of our termination algorithm. These extensions and applications concern the active rules flot included in a cycle, the composite conditions, the composite events, the priorities between ailes, and the modular design of rules. .
APA, Harvard, Vancouver, ISO und andere Zitierweisen
5

Roudel, Nicolas. „SEEPROC : un modèle de processeur à chemin de données reconfigurable pour le traitement d'images embarqué“. Phd thesis, Université Blaise Pascal - Clermont-Ferrand II, 2012. http://tel.archives-ouvertes.fr/tel-00864180.

Der volle Inhalt der Quelle
Annotation:
Les travaux présentés dans ce manuscrit proposent une architecture de processeur à chemin de données reconfigurable (PCDR) dédiée aux traitements d'images bas niveau. Afin de répondre aux exigences de ce domaine de traitements, le processeur, baptisé SeeProc et basé sur une architecture RISC, intègre dans son chemin de données des unités de calcul spécifiquement dédiées au traitement de données pixeliques sous forme matricielle. Ces unités peuvent être configurées en nombre et en fonctionnalité en fonction de l'application visée. La topologie d'interconnexion du chemin de données est assurée dynamiquement via un dispositif de type crossbar. De plus, pour rendre la programmation de SeeProc accessible à des utilisateurs n'ayant pas de notions d'électronique numérique, un langage assembleur dédié et une méthodologie d'optimisation ont été développés.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
6

Pasca, Bogdan Mihai. „Calcul flottant haute performance sur circuits reconfigurables“. Phd thesis, Ecole normale supérieure de lyon - ENS LYON, 2011. http://tel.archives-ouvertes.fr/tel-00654121.

Der volle Inhalt der Quelle
Annotation:
De plus en plus de constructeurs proposent des accélérateurs de calculs à base de circuits reconfigurables FPGA, cette technologie présentant bien plus de souplesse que le microprocesseur. Valoriser cette flexibilité dans le domaine de l'accélération de calcul flottant en utilisant les langages de description de circuits classiques (VHDL ou Verilog) reste toutefois très difficile, voire impossible parfois. Cette thèse a contribué au développement du logiciel FloPoCo, qui offre aux utilisateurs familiers avec VHDL un cadre C++ de description d'opérateurs arithmétiques génériques adapté au calcul reconfigurable. Ce cadre distingue explicitement la fonctionnalité combinatoire d'un opérateur, et la problématique de son pipeline pour une précision, une fréquence et un FPGA cible donnés. Afin de pouvoir utiliser FloPoCo pour concevoir des opérateurs haute performance en virgule flottante, il a fallu d'abord concevoir des blocs de bases optimisés. Nous avons d'abord développé des additionneurs pipelinés autour des lignes de propagation de retenue rapides, puis, à l'aide de techniques de pavages, nous avons conçu de gros multiplieurs, possiblement tronqués, utilisant des petits multiplieurs. L'évaluation de fonctions élémentaires en flottant implique souvent l'évaluation en virgule fixe d'une fonction. Nous présentons un opérateur générique de FloPoCo qui prend en entrée l'expression de la fonction à évaluer, avec ses précisions d'entrée et de sortie, et construit un évaluateur polynomial optimisé de cette fonction. Ce bloc de base a permis de développer des opérateurs en virgule flottante pour la racine carrée et l'exponentielle qui améliorent considérablement l'état de l'art. Nous avons aussi travaillé sur des techniques de compilation avancée pour adapter l'exécution d'un code C aux pipelines flexibles de nos opérateurs. FloPoCo a pu ainsi être utilisé pour implanter sur FPGA des applications complètes.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
7

Zhang, Xiaofei. „Contrôle de transmission multi-chemin et gestion de mobilité pour protocoles de transport multihoming“. Paris 6, 2012. http://www.theses.fr/2012PA066130.

Der volle Inhalt der Quelle
Annotation:
Un terminal mobile d'aujourd'hui possède plusieurs interfaces des réseaux. Ces interfaces pourraient être connectées aux différents réseaux et obtenir plusieurs adresses IP. Le terminal transmet les données sur ces interfaces en parallèle. Nous étudions les problèmes multihoming à la couche transport pour améliorer la performance de bout en bout. En outre, la coordination entre le multihoming et la gestion de mobilité est étudiée ce qui nous permet de proposer la gestion de mobilité coopérative. D'abord, nous proposons une solution inter-couches pour l'optimisation des performances avec l'extension Concurrent Multipath Transfer (CMT) de SCTP dans les réseaux sans fil. Deux paramètres, Frame Error Rate (FER) à la couche liaison et Round Trip Time (RTT) à la couche transport sont utilisés pour évaluer les conditions des chemins. Les résultats montrent que notre proposition améliore les débits. Deuxièmement, nous nous concentrons sur les liens hétérogènes sans fil. Nous choisissons le filtre de Kalman pour estimer les conditions des chemins. Les résultats ont montré que notre proposition réduit le degré de déséquencement et augmente le débit total. Enfin, une architecture de la gestion de la mobilité coopérative est proposé pour le Post-IP. Les caractéristiques de multihoming sont analysés afin de présenter la proposition de Multihoming-based Cooperative Mobility Management (MCMM). Notre proposition optimise le délai de handover dans les réseaux hétérogènes. Notre proposition est implémenté en C++. Les résultats expérimentaux montrent que le délai de handover peut être réduit par l'envoi des messages de mise à jour via l'interface correspondant au chemin le plus rapide
Most of mobile devices today are equipped with multiple network interfaces that could be connected to different network and obtain multiple IP addresses. In this dissertation, we investigate the multihoming problems at transport layer to improve the end-to-end performance in wireless networks. Moreover, the coordination between multihoming and mobility management is studied which permit us to propose a cooperative mobility management for an environment Post-IP. Firstly, we propose a cross-layer solution for performance optimization with the Concurrent Multipath Transfer (CMT) extension of SCTP in wireless networks. Two parameters, Frame Error Rate (FER) at the link layer and Round Trip Time (RTT) at the transport layer are used to evaluate the path conditions. The simulation results show that our proposal improves the goodput. Secondly, we focus on the heterogeneous wireless links. We chose Kalman filter for the estimation of path conditions. The simulation results show that our proposal reduces the reordering degree and increases the total goodput. Finally, a cooperative mobility management architecture is proposed for Post-IP. Multihoming and end-to-end features are analyzed to present the proposal of Multihoming-based Cooperative Mobility Management (MCMM). The cooperative mobility management optimizes the handover delay in the heterogeneous access networks. The MCMM is implemented in C++ under Linux with a test-bed. The experimental results show that the handover delay can be reduced by sending update messages over the interface of the fastest path
APA, Harvard, Vancouver, ISO und andere Zitierweisen
8

Larnac, Mireille. „Gestion de la Condition de Chemin dans la simulation symbolique“. Phd thesis, Montpellier 2, 1992. http://tel.archives-ouvertes.fr/tel-00866197.

Der volle Inhalt der Quelle
Annotation:
Le traitement des branchements conditionnels est un problème spécifique à la simulation symbolique. La gestion de la Condition de Chemin consiste à déterminer si la valeur de vérité d'une condition est contenue dans tous les choix qui ont été opérés sur les tests précédemment rencontrés, ou si, au contraire, le choix de cette valeur est laissé à la libre appréciation de l'utilisateur : c'est le rôle de l'opérateur de choix. Cet opérateur et les propriétés qui le caractérisent sont définis. Son application sur des expressions particulières, puis dans le cas général est ensuite étudiée.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
9

Francis, Nadime. „Vues et requêtes sur les graphes de données : déterminabilité et réécritures“. Thesis, Université Paris-Saclay (ComUE), 2015. http://www.theses.fr/2015SACLN015/document.

Der volle Inhalt der Quelle
Annotation:
Les graphes de données sont naturellement utilisés dans de nombreux contextes incluant par exemple les réseaux sociaux ou le Web sémantique. L'information contenue dans la base de données se trouve alors aussi bien dans les données mêmes que dans la topologie du graphe, c'est-à-dire dans la manière dont les données sont connectées. Cela implique donc de considérer les questions traditionnelles en théorie des bases de données pour des langages de requêtes capables de parler des chemins connectant les nœuds du graphe. Nous nous intéressons en particulier aux problèmes de la déterminabilité et de la réécriture d'une requête à l'aide de vues. Il s'agit alors de décider si une vue de la base de données contient suffisamment d'information pour répondre entièrement à une requête sans consulter la base de données directement, et dans ce cas, d'exprimer explicitement la réponse à la requête à partir de la vue. Ce cadre rencontre de nombreuses applications, notamment pour l'intégration de données et l'optimisation de requêtes. Nous commençons par comparer ces deux questions aux autres problèmes de décision classiques dans ce contexte : calcul des réponses certaines, test de cohérence et mise à jour d'une instance de vue. Nous améliorons ensuite ces résultats dans deux cas spécifiques. Tout d'abord, nous montrons que pour les requêtes régulières de chemin, l'existence d'une réécriture monotone coïncide avec l'existence d'une réécriture dans Datalog. Puis, nous montrons que pour des vues s'intéressant uniquement aux longueurs des chemins du graphe, une notion plus faible de déterminabilité, appelée déterminabilité asymptotique, est décidable et résulte en des réécritures du premier ordre
Graph databases appear naturally in various scenarios, such as social networks and the semantic Web. In these cases, the information contained in the database lies as much in the data itself as in the topology of the graph, that is, in how the data points are linked together. This leads to considering traditional database theory questions for query languages that return data nodes based on the paths of the graph connecting them. We focus our attention on the view-based query determinacy and rewriting problems. They ask the question whether a view of the database contains enough information to fully answer a query without accessing the database directly. If so, we then want to express the answer to the query directly with regards to the view. This setting occurs in many applications, such as data integration and query optimization. We start by comparing these two tasks to other common task in this setting: computing certain answers, checking consistency of a view instance and updating it. We then build on these results in two specific cases. First, we show that for regular path queries, the existence of a monotone rewriting coincides with the existence of a rewriting expressible in Datalog. Then, we show that for views that only consider the lengths of the path in the graph, we can decide a weaker form of determinacy, called asymptotic determinacy, and produce first-order rewritings for the queries that are asymptotically determined
APA, Harvard, Vancouver, ISO und andere Zitierweisen
10

Fellahi, Mohammed. „Des réseaux de processus cyclo-statiques à la génération de code pour le pipeline multi-dimensionnel“. Phd thesis, Université Paris Sud - Paris XI, 2011. http://tel.archives-ouvertes.fr/tel-00683224.

Der volle Inhalt der Quelle
Annotation:
Les applications de flux de données sont des cibles importantes de l'optimisation de programme en raison de leur haute exigence de calcul et la diversité de leurs domaines d'application: communication, systèmes embarqués, multimédia, etc. L'un des problèmes les plus importants et difficiles dans la conception des langages de programmation destinés à ce genre d'applications est comment les ordonnancer à grain fin à fin d'exploiter les ressources disponibles de la machine.Dans cette thèse on propose un "framework" pour l'ordonnancement à grain fin des applications de flux de données et des boucles imbriquées en général. Premièrement on essaye de paralléliser le nombre maximum de boucles en appliquant le pipeline logiciel. Après on merge le prologue et l'épilogue de chaque boucle (phase) parallélisée pour éviter l'augmentation de la taille du code. Ce processus est un pipeline multidimensionnel, quelques occurrences (ou instructions) sont décalées par des iterations de la boucle interne et d'autres occurrences (instructions) par des iterationsde la boucle externe. Les expériences montrent que l'application de cette technique permet l'amélioration des performances, extraction du parallélisme sans augmenter la taille du code, à la fois dans le cas des applications de flux des donnée et des boucles imbriquées en général.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
11

Rocheteau, Frédéric. „Extension du langage LUSTRE et application a la conception de circuits : le langage LUSTRE-V4 et le systeme POLLUX“. Grenoble INPG, 1992. http://tel.archives-ouvertes.fr/tel-00342092.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
12

Zaher, Noufal Issam al. „Outils de CAO pour la génération d'opérateurs arithmétiques auto-contrôlables“. Grenoble INPG, 2001. http://www.theses.fr/2001INPG0028.

Der volle Inhalt der Quelle
Annotation:
Les chemins de données sont des parties logiques essentielles dans les microprocesseurs et les microcontrôleurs. La conception de chemins de données fiables est donc un pas important vers la réalisation de circuits intégrés plus sûrs. Nous avons, d’abord, étudié des multiplieurs auto-contrôlables basés sur le code résidu. Nous avons montré qu’on peut avoir des multiplieurs sûrs en présence de fautes de type collage logique avec un surcoût très faible, notamment pour les multiplieurs de grande taille (de 10 à 15 % pour les multiplieurs de taille 32x32). Dans la deuxième partie, nous avons généralisé des solutions auto-contrôlables existantes d’opérateurs arithmétiques basés sur la parité. Les nouvelles versions ont plusieurs bits de parité et permettent d’augmenter sensiblement la couverture de fautes transitoires. Les solutions développées sont intégrées dans un outil informatique. Cet outil donne une grande flexibilité de choix d’opérateurs arithmétiques et logiques auto contrôlables permettant ainsi de faciliter la tâche des concepteurs non spécialisés
APA, Harvard, Vancouver, ISO und andere Zitierweisen
13

Ramazani, Abbas. „Étude d'une architecture parallèle de processeur pour la transmission de données à haut débit“. Metz, 2005. http://docnum.univ-lorraine.fr/public/UPV-M/Theses/2005/Ramazani.Abbas.SMZ0506.pdf.

Der volle Inhalt der Quelle
Annotation:
Le travail de cette thèse s'intègre dans un projet général au sein du laboratoire LICM concernant la conception architecturale d'une chaîne de transmission à haut débit. L'objectif global est de concevoir un processeur spécialisé pour le traitement rapide des algorithmes des divers protocoles présents dans les couches basses des modèles références (OSI, Internet, ITU-T/ATM). L'évolution des technologies et l'élargissement des bandes passantes des réseaux de transmission ont transféré le goulot d'étranglement concernant les débits autorisés vers les équipements constituant les nœuds actifs des réseaux. La prise en charge de la diversité des protocoles employés, de l'hétérogénéité des données et des très forts débits requis, n'est possible que par une forte montée en puissance de la capacité de traitement de ces équipements. Si ce problème est déjà en bonne partie traité en ce qui concerne les routeurs et les commutateurs, beaucoup de chemin reste encore à faire concernant les équipements terminaux de circuits de données (ex : modem, carte réseau) dans le domaine du haut débit. La conception d'une architecture de processeur spécialisée dépend fortement des caractéristiques des applications auxquelles le processeur est dédié. L'architecture globale choisie pour le processeur est celle d'un ensemble d'unités de traitement généralistes (mini coeurs de processeur) ou spécialisées (modules auxiliaires) interconnectées. Le but est d'offrir une capacité de traitement parallèle élevée. Le développement d'une telle architecture nous impose de définir une démarche méthodologique appropriée. Cette démarche commence par une étude de protocoles de réseaux représentatifs. Il s'agit tout d'abord d'identifier parmi les principales tâches (opérations) des protocoles, les plus communes et les plus critiques d'entre elles. Les tâches critiques (du point de vue temporel) sont traitées par des modules spécialisés (dont l'étude fait l'objet d'autres travaux). Les tâches restantes sont prises en charge par les unités de traitement généralistes dont l'étude constitue l'essentiel de ce travail. Les performances potentielles de ces unités généralistes sont évaluées en fonction de différentes architectures cibles (CISC, RISC, superscalaire, VLIW). La technique mise en place, pour l'évaluation des performances temporelles des architectures, repose sur une modélisation des algorithmes par chaînes de Markov. Un banc de simulation a été réalisé implantant la technique. Afin de ne pas favoriser indûment une architecture, nous avons introduit un modèle de processeur virtuel pour coder les algorithmes sans introduire de contrainte lié à l'une des architectures. L'analyse des résultats obtenus avec le banc de simulation, nous a permis de déterminer les architectures les plus appropriés par type d'algorithme. La performance de l'architecture globale du processeur (fonctionnement parallèle de l'ensemble des unités de traitement) a été évaluée pour différentes conditions de trafic. Un modèle d'interconnexion simplifié (par rapport au modèle final) a été utilisé, reliant les unités de traitement sous forme d'un pseudo-pipeline (linéaire ou non). Enfin, deux types d'unités de traitement généralistes (mini coeurs de processeur) ont été modélisées en VHDL au niveau RTL et alidées sur FPGA
The work presented here is part of a general project within the LICM laboratory, concerning the architectural design of a high data rate transmission system. The main objective is to design a specialized processor for fast processing of the lower layer protocols in the reference models (OSI, Internet, ITU-T/ATM). The technology evolution and increasing of the bandwidth of the physical transmission media have transferred the bottleneck concerning the available data rates of the communication networks towards the network active node equipments. Managing the protocol diversity, the data heterogeneity, and high data rates requires a substantial improvement of the processing power in these equipments. Although this problem has been largely addressed concerning routers and switches, end-user equipments (e. G : modems and network interface cards) are still far from matching the requirement of high data rates. The design of a specialized processor architecture depends strongly on the characteristics of applications to which the processor is dedicated. The architecture selected for the processor is a set of interconnected general processing units (mini processor cores) or specialized modules (auxiliary modules). The goal is to offer a high level of parallel processing capacity. The development of such an architecture requires a suitable design methodology to be defined, which starts by a study of representative network protocols. First of all, the goal is to identify among the principal tasks (operations of the protocols) the most common and the most critical. The critical tasks (from the realtime point of view) are processed by specialized modules (whose study is not our goal). The remaining tasks are performed by the general processing units, whose study is the main subject of this work. Potential performance of these general units is evaluated for various target architectures (CISC, RISC, superscalair, VLIW). The time performance evaluation of architectures is based on the algorithm modelling using Markov chains which was used to implement the simulation tools. In order not to favour a particular architecture, we introduced a virtual processor model to encode the algorithms without introducing any constrains related to actual architectures. The analysis of the simulation results allowed us to find good architectures/algorithms adequacy. The performance of the overall processor architecture (parallel operation of the processing units) was evaluated under various traffic conditions. A simplified interconnection model (compared to the final model) was used which allowed to connect the processing units in a pseudo-pipeline (linear or not) chain. Lastly, two types of general processing units (mini processor cores) have been designed in VHDL at the RTL level and validated on FPGA
APA, Harvard, Vancouver, ISO und andere Zitierweisen
14

Thomas, Féraud. „Rejeu de chemin et localisation monoculaire : Application du Visual SLAM sur carte peu dense en environnement extérieur contraint“. Phd thesis, Université Blaise Pascal - Clermont-Ferrand II, 2011. http://tel.archives-ouvertes.fr/tel-00696256.

Der volle Inhalt der Quelle
Annotation:
Dans le cadre de la robotique mobile en environnement extérieur, les concepts de localisation et de perception sont au coeur de toute réalisation. Aussi, les travaux menés au sein de cette thèse visent à rendre plus robustes des processus de localisation existants sans pour autant augmenter de manière notable leur complexité. La problématique proposée place un robot au sein d'un environnement potentiellement dangereux avec pour objectif de suivre une trajectoire établie comme sécurisée avec une carte aussi simple que possible. De plus, des contraintes fortes sont imposées tant dans la réalisation (système peu onéreux, indétectable) que dans le résultat (une exécution temps-réel et une localisation en permanence dans une tolérance de 10 cm autour de la trajectoire de référence). Le capteur extéroceptif choisi pour mener à bien ce projet est une caméra tandis que l'estimation de la pose du véhicule à chaque instant est réalisée par un ltre de Kalman dans sa version étendue. Les principaux problèmes d'estimation résident dans la non-linéarité des modèles d'observation et les contributions apportées apportent quelques solutions : - une méthode de calcul exacte de la propagation des incertitudes de l'espace monde vers l'espace capteur (caméra) ; - une méthode de détection des principaux cas de divergence du filtre de Kalman dans le calcul de la phase de mise à jour ; - une méthode de correction du gain de Kalman. Ce projet avait deux objectifs : réaliser une fonction de localisation répondant aux contraintes fortes préalablement évoquées, et permettre à un véhicule de quitter temporairement la trajectoire de référence, suite à la prise en main de l'opérateur pour ensuite reprendre le cours normale de sa mission au plus près de la trajectoire de référence. Ce deuxième volet fait intervenir un cadre plus large dans lequel il faut, en plus de la localisation, cartographier son environnement. Cette problématique, identifiée par l'acronyme SLAM (Simultaneous Localization And Mapping), fait le lien avec les deux dernières contributions de ces travaux de thèse : - une méthode d'initialisation des points qui constitueront la carte SLAM; - une méthode pour maintenir la cohérence entre la carte de référence et la carte SLAM. Des résultats sur des données réelles, étayant chacune des contributions, sont présentés et illustrent la réalisation des deux principaux objectifs.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
15

Féraud, Thomas. „Rejeu de chemin et localisation monoculaire : application du Visual SLAM sur carte peu dense en environnement extérieur contraint“. Phd thesis, Université Blaise Pascal - Clermont-Ferrand II, 2011. http://tel.archives-ouvertes.fr/tel-00697028.

Der volle Inhalt der Quelle
Annotation:
Dans le cadre de la robotique mobile en environnement extérieur, les concepts de localisation et de perception sont au coeur de toute réalisation. Aussi, les travaux menés au sein de cette thèse visent à rendre plus robustes des processus de localisation existants sans pour autant augmenter de manière notable leur complexité. La problématique proposée place un robot au sein d'un environnement potentiellement dangereux avec pour objectif de suivre une trajectoire établie comme sécurisée avec une carte aussi simple que possible. De plus, des contraintes fortes sont imposées tant dans la réalisation (système peu onéreux, indétectable) que dans le résultat (une exécution temps-réel et une localisation en permanence dans une tolérance de 10 cm autour de la trajectoire de référence). Le capteur extéroceptif choisi pour mener à bien ce projet est une caméra tandis que l'estimation de la pose du véhicule à chaque instant est réalisée par un filtre de Kalman dans sa version étendue. Les principaux problèmes d'estimation résident dans la non-linéarité des modèles d'observation et les contributions apportées apportent quelques solutions : - une méthode de calcul exacte de la propagation des incertitudes de l'espace monde vers l'espace capteur (caméra) ; - une méthode de détection des principaux cas de divergence du filtre de Kalman dans le calcul de la phase de mise à jour ; - une méthode de correction du gain de Kalman. Ce projet avait deux objectifs : réaliser une fonction de localisation répondant aux contraintes fortes préalablement évoquées, et permettre à un véhicule de quitter temporairement la trajectoire de référence, suite à la prise en main de l'opérateur pour ensuite reprendre le cours normal de sa mission au plus près de la trajectoire de référence. Ce deuxième volet fait intervenir un cadre plus large dans lequel il faut, en plus de la localisation, cartographier son environnement. Cette problématique, identifiée par l'acronyme SLAM (Simultaneous Localization And Mapping), fait le lien avec les deux dernières contributions de ces travaux de thèse : - une méthode d'initialisation des points qui constitueront la carte SLAM ; - une méthode pour maintenir la cohérence entre la carte de référence et la carte SLAM. Des résultats sur des données réelles, étayant chacune des contributions, sont présentés et illustrent la réalisation des deux principaux objectifs.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
16

Jachiet, Louis. „Sur la compilation des langages de requêtes pour le web des données : optimisation et évaluation distribuée de SPARQL“. Thesis, Université Grenoble Alpes (ComUE), 2018. http://www.theses.fr/2018GREAM038/document.

Der volle Inhalt der Quelle
Annotation:
Ma thèse porte sur la compilation des langages de requêtes orientés web des données. Plus particulièrement, ma thèse s'intéresse à l'analyse, l'optimisation et l'évaluation distribuée d'un tel langage : SPARQL. Ma contribution principale est l'élaboration d'une méthode nouvelle particulièrement intéressante pour des requêtes contenant de la récursion ou dans le cadre d'une évaluation distribuée. Cette nouvelle méthode s'appuie sur un nouvel outil que nous introduisons : la μ-algèbre. C'est une variation de l'algèbre relationnelle équipée d'un opérateur de point fixe. Nous présentons sa syntaxe et sémantique ainsi qu'une traduction vers la μ-algèbre depuis SPARQL avec Property Paths (une fonctionnalité introduite dans le dernier standard SPARQL qui autorise une forme de récursion).Nous présentons ensuite un système de types et nous montrons comment les termes de la μ-algèbre peuvent être réécrits en d'autres termes (de sémantique équivalente) en utilisant soit des règles de réécriture provenant de l'algèbre relationnelle soit des règles nouvelles, spécifiques à la μ-algèbre. Nous démontrons la correction des nouvelles règles qui sont introduites pour réécrire les points fixes : elles permettent de pousser les filtres, les jointures ou les projections à l'intérieur des points fixes (dépendant des certaines conditions sur le terme).Nous présentons ensuite comment ces termes peuvent être évalués, d'abord de manière générale, puis en considérant le cas particulier d'une évaluation sur une plateforme distribuée. Nous présentons aussi un modèle de coût pour l'évaluation des termes. À l'aide du modèle de coût et de l'évaluateur, plusieurs termes qui sont équivalents d'un point de vue sémantiques peuvent maintenant être vus comme différentes manières d'évaluer les termes avec différents coûts estimés. Nous montrons alors que les termes qui sont considérés grâce aux nouvelles règles de réécritures que nous avons introduites, permettent une exécution plus efficace que ce qui était possible dans les autres approches existantes. Nous confirmons ce résultat théorique par une expérimentation comparant plusieurs exécuteurs sur des requêtes SPARQL contenant de la récursion.Nous avons investigué comment utiliser une plateforme de calcul distribuée (Apache Spark) pour produire un évaluateur efficace de requêtes SPARQL. Cet évaluateur s'appuie sur un fragment de la μ-algèbre, limité aux opérateurs qui ont une traduction en code Spark efficace. Le résultat de ces investigations à résultat en l'implémentation de SPARQLGX, un évaluateur SPARQL distribué en pointe par rapport à l'état de l'art.Pour finir, ma dernière contribution concerne l'estimation de la cardinalité des solutions à un terme de la μ-algèbre. Ces estimateurs sont particulièrement utiles pour l'optimisation. En effet, les modèles de coût reposent généralement sur de telles estimations pour choisir quel sera le terme le plus efficace parmi plusieurs termes équivalents. Pour cette estimation nous nous intéressons tout particulièrement au fragment conjonctif de la μ-algèbre (ce qui correspond au fragment bien connu Basic Graph Pattern de SPARQL). Notre nouvelle estimation de cardinalité s'appuie sur des statistiques sur les données et a été implémenté dans SPARQLGX. Nos expériences montrent que cette méthode permet de grandement accélérer l'évaluation de SPARQL sur SPARQLGX
The topic of my PhD is the compilation of web data query languages. More particularly, the analysisand the distributed evaluation of a such language: SPARQL. My main contributions concern theevaluation of web data queries especially for recursive queries or for distributed settings.In this thesis, I introduce μ-algebra: it is a kind of relational algebra equipped with a fixpointoperator. I present its syntax, semantics, and a translation from SPARQL with Property Paths (anew feature of SPARQL allowing some form of recursion) to this μ-algebra.I then present a type system and show how μ-algebra terms can be rewritten to terms withequivalent semantics using either classical rewrite rules of the relational world or new rules that arespecific to this μ-algebra. We demonstrate the correctness of these new rules that are introduced tohandle the rewriting of fixpoints: they allow to push filters, joins and projections inside fixpointsor to combine several fixpoints (when some condition holds).I demonstrate how these terms could be evaluated both from a general perspective and in thespecific case of a distributed evaluation. I devise a cost model for μ-algebra terms inspired by thisevaluation. With this cost model and this evaluator, several terms that are semantically equivalentcan be seen as various Query Execution Plans (QEP) for a given query. I show that the μ-algebraand its rewrite rules allow the reach of QEP that are more efficient than all QEP considered in otherexisting approaches and confirm this by an experimental comparison of several query evaluators onSPARQL queries with recursion.I investigate the use of an efficient distributed framework (Spark) to build a fast SPARQL dis-tributed query evaluator. It is based on a fragment of μ-algebra, limited to operators that havea translation into fast Spark code. The result of this has been used to implement SPARQLGX, astate of the art distributed SPARQL query evaluator.Finally, my last contribution concerns the estimation of the cardinality of solutions to a μ-algebraterm. Such estimators are key in the optimization. Indeed, most cost models for QEP rely on suchestimators and are therefore necessary to determine the most efficient QEP. I specifically considerthe conjunctive query fragment of μ-algebra (which corresponds to the well-known Basic GraphPattern fragment of SPARQL). I propose a new cardinality estimation based on statistics about thedata and implemented the method into SPARQLGX. Experiments show that this method improvesthe performance of SPARQLGX
APA, Harvard, Vancouver, ISO und andere Zitierweisen
17

Martin, Patrick. „Conception et réalisation d'un système multiprocesseur, cadencé par les données, pour le traitement d'images linéaires en temps réel“. Rouen, 1991. http://www.theses.fr/1991ROUE5046.

Der volle Inhalt der Quelle
Annotation:
Nous présentons un opérateur programmable capable d'analyser à la cadence de l'acquisition les informations issues d'une caméra linéaire 2 MHz. Ses applications sont orientées vers le contrôle de qualité. L'unité de traitement de l'opérateur est formée de huit processeurs NEC cadencés par les données. Il présente l'intérêt d'être flexible, de remplir des tâches complexes en ayant un bon rapport coût/performance. Dans un premier temps nous abordons les solutions adoptées dans les systèmes multiprocesseurs conventionnels ainsi que la détection et l'exploitation du parallélisme par ces architectures. Puis en opposition, nous présentons le concept data flow suivi de la description de deux machines en cours de développement. Ensuite nous proposons une étude du processeur NEC µPD7281, complétée par une méthode d'évaluation des temps d'exécution des programmes écrits sous forme de graphes. Puis nous développons les solutions adoptées dans l'architecture de l'opérateur. Et en dernier lieu nous présentons deux applications mettant en évidence les performances de l'opérateur. La première porte sur le contrôle de 7000 gélules pharmaceutiques par heure; les principales caractéristiques à vérifier sont la couleur de la gélule, l'aspect géométrique et la présence du produit pharmaceutique. La seconde concerne la qualité d'impression de flacons
APA, Harvard, Vancouver, ISO und andere Zitierweisen
18

Clienti, Christophe. „Architectures flot de données dédiées au traitement d'images par morphologie mathématique“. Phd thesis, École Nationale Supérieure des Mines de Paris, 2009. http://pastel.archives-ouvertes.fr/pastel-00005758.

Der volle Inhalt der Quelle
Annotation:
Nous abordons ici la thématique des opérateurs et processeurs flot de données dédiés au traitement d'images et orientés vers la morphologie mathématique. L'objectif principal est de proposer des architectures performantes capables de réaliser les opérations simples de ce corpus mathématique afin de proposer des opérateurs morphologiques avancés. Ces dernières années, des algorithmes astucieux ont été proposés avec comme objectif de réduire la quantité des calculs nécessaires à la réalisation de transformations telle que la ligne de partage des eaux. Toutefois, les mises en œuvre proposées font souvent appel à des structures de données complexes qui sont difficiles à employer sur des machines différentes des processeurs généralistes monocœurs. Les processeurs standard poursuivant aujourd'hui leur évolution vers une augmentation du parallélisme, ces implémentations ne nous permettent pas d'obtenir les gains de performance escomptés à chaque nouvelle génération de machine. Nous proposons alors des mises en œuvre rapides des opérations complexes de la morphologie mathématique par des machines exploitant fortement le parallélisme intrinsèque des opérations basiques. Nous étudions dans une première partie les processeurs de voisinage travaillant directement sur un flot de pixels et nous proposons différentes méthodologies de conception rapide de pipelines dédiés à une application. Nous proposons également une structure de pipeline programmable via l'utilisation de processeurs vectoriels avec différentes possibilités de chaînage. Enfin, une étude avec des machines est proposée afin d'observer la pertinence de notre approche.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
19

Da, Silva Sébastien. „Fouille de données spatiales et modélisation de linéaires de paysages agricoles“. Thesis, Université de Lorraine, 2014. http://www.theses.fr/2014LORR0156/document.

Der volle Inhalt der Quelle
Annotation:
Cette thèse s'inscrit dans un partenariat entre l'INRA et l'INRIA et dans le champs de l'extraction de connaissances à partir de bases de données spatiales. La problématique porte sur la caractérisation et la simulation de paysages agricoles. Plus précisément, nous nous concentrons sur des lignes qui structurent le paysage agricole, telles que les routes, les fossés d'irrigation et les haies. Notre objectif est de modéliser les haies en raison de leur rôle dans de nombreux processus écologiques et environnementaux. Nous étudions les moyens de caractériser les structures de haies sur deux paysages agricoles contrastés, l'un situé dans le sud-Est de la France (majoritairement composé de vergers) et le second en Bretagne (Ouest de la France, de type bocage). Nous déterminons également si, et dans quelles circonstances, la répartition spatiale des haies est structurée par la position des éléments linéaires plus pérennes du paysage tels que les routes et les fossés et l'échelle de ces structures. La démarche d'extraction de connaissances à partir de base de données (ECBD) mise en place comporte différentes étapes de prétraitement et de fouille de données, alliant des méthodes mathématiques et informatiques. La première partie du travail de thèse se concentre sur la création d'un indice spatial statistique, fondé sur une notion géométrique de voisinage et permettant la caractérisation des structures de haies. Celui-Ci a permis de décrire les structures de haies dans le paysage et les résultats montrent qu'elles dépendent des éléments plus pérennes à courte distance et que le voisinage des haies est uniforme au-Delà de 150 mètres. En outre différentes structures de voisinage ont été mises en évidence selon les principales orientations de haies dans le sud-Est de la France, mais pas en Bretagne. La seconde partie du travail de thèse a exploré l'intérêt du couplage de méthodes de linéarisation avec des méthodes de Markov. Les méthodes de linéarisation ont été introduites avec l'utilisation d'une variante des courbes de Hilbert : les chemins de Hilbert adaptatifs. Les données spatiales linéaires ainsi construites ont ensuite été traitées avec les méthodes de Markov. Ces dernières ont l'avantage de pouvoir servir à la fois pour l'apprentissage sur les données réelles et pour la génération de données, dans le cadre, par exemple, de la simulation d'un paysage. Les résultats montrent que ces méthodes couplées permettant un apprentissage et une génération automatique qui capte des caractéristiques des différents paysages. Les premières simulations sont encourageantes malgré le besoin d'un post-Traitement. Finalement, ce travail de thèse a permis la création d'une méthode d'exploration de données spatiales basée sur différents outils et prenant en charge toutes les étapes de l'ECBD classique, depuis la sélection des données jusqu'à la visualisation des résultats. De plus, la construction de cette méthode est telle qu'elle peut servir à son tour à la génération de données, volet nécessaire pour la simulation de paysage
This thesis is part of a partnership between INRA and INRIA in the field of knowledge extraction from spatial databases. The study focuses on the characterization and simulation of agricultural landscapes. More specifically, we focus on linears that structure the agricultural landscape, such as roads, irrigation ditches and hedgerows. Our goal is to model the spatial distribution of hedgerows because of their role in many ecological and environmental processes. We more specifically study how to characterize the spatial structure of hedgerows in two contrasting agricultural landscapes, one located in south-Eastern France (mainly composed of orchards) and the second in Brittany (western France, \emph{bocage}-Type). We determine if the spatial distribution of hedgerows is structured by the position of the more perennial linear landscape features, such as roads and ditches, or not. In such a case, we also detect the circumstances under which this spatial distribution is structured and the scale of these structures. The implementation of the process of Knowledge Discovery in Databases (KDD) is comprised of different preprocessing steps and data mining algorithms which combine mathematical and computational methods. The first part of the thesis focuses on the creation of a statistical spatial index, based on a geometric neighborhood concept and allowing the characterization of structures of hedgerows. Spatial index allows to describe the structures of hedgerows in the landscape. The results show that hedgerows depend on more permanent linear elements at short distances, and that their neighborhood is uniform beyond 150 meters. In addition different neighborhood structures have been identified depending on the orientation of hedgerows in the South-East of France but not in Brittany. The second part of the thesis explores the potential of coupling linearization methods with Markov methods. The linearization methods are based on the use of alternative Hilbert curves: Hilbert adaptive paths. The linearized spatial data thus constructed were then treated with Markov methods. These methods have the advantage of being able to serve both for the machine learning and for the generation of new data, for example in the context of the simulation of a landscape. The results show that the combination of these methods for learning and automatic generation of hedgerows captures some characteristics of the different study landscapes. The first simulations are encouraging despite the need for post-Processing. Finally, this work has enabled the creation of a spatial data mining method based on different tools that support all stages of a classic KDD, from the selection of data to the visualization of results. Furthermore, this method was constructed in such a way that it can also be used for data generation, a component necessary for the simulation of landscapes
APA, Harvard, Vancouver, ISO und andere Zitierweisen
20

Karabernou, Si Mahmoud. „Conception et réalisation d'un processeur pour une architecture cellulaire massivement parallèle intégrée“. Grenoble INPG, 1993. http://tel.archives-ouvertes.fr/tel-00343216.

Der volle Inhalt der Quelle
Annotation:
Cette thèse présente la conception et la réalisation en VLSI d'un processeur programmable pour une nouvelle architecture MIMD massivement parallèle, intermédiaire entre la connection machine et les hypercubes de processeurs 32 bits. Elle est composée d'une grille 2d de cellules asynchrones communiquant par échanges de messages. Chaque cellule intégré une partie de traitement qui consiste en un petit microprocesseur 8 bits dote d'une mémoire (données et programme), et une partie de routage permettant l'acheminement des messages. A l'issue de l'étude des différents problèmes de communication dans les machines parallèles, nous proposons un routeur original utilisant le principe du Wormhole, et permettant d'acheminer jusqu'à cinq messages en parallèle. Nous décrivons ensuite l'architecture de la partie de traitement, en partant de la définition du jeu d'instructions, du chemin de données et de la partie contrôle jusqu'à la conception au bas niveau. Un premier prototype d'un circuit VLSI de ce processeur a été réalise sur silicium et a permis d'obtenir les mesures des surfaces et des performances
APA, Harvard, Vancouver, ISO und andere Zitierweisen
21

Boufares, Faouzi. „Analyse et conception d'un optimiseur de requêtes dans un système relationnel“. Paris 11, 1986. http://www.theses.fr/1986PA112356.

Der volle Inhalt der Quelle
Annotation:
L'analyse et la conception d'un optimiseur de requêtes dans un système relationnel font l'objet de cette thèse. Nous explicitons les critères de choix entre les différents algorithmes des opérations de base considérées: la sélection, le tri, la projection et la jointure. Nous établissons les critères de choix d'une méthode d'exécution de la jointure en fonction des tailles des deux relations et de celle de la mémoire, du nombre moyen de nuplets par page, des chemins d'accès aux données et du taux de sélectivité. Enfin, nous spécifions des algorithmes pour les opérateurs groupés afin d'exécuter la jointure, la sélection et la projection simultanément. Ces algorithmes sont à la base de notre méthode d'optimisation de requêtes
This thesis deals with the analysis and the conception of a query optimizer in a Relational Data Base Management System. We consider the problem of the choice of algorithms for relational operations: selection, sort, projection and join. We established some useful criteria for this choice. We show that the choice of the join execution method depends on: size of the two relations, memory size, average of page tuples, data access path and selectivity rate. Finally, we specify some algorithms for grouped operators to execute join selection and projection simultaneously. Our method of query optimization stands on those algorithms
APA, Harvard, Vancouver, ISO und andere Zitierweisen
22

Pascal, Rémi. „Le peuplement du bassin méditerranéen de 1800 à 2010 : données disponibles, limites et organisations spatiales“. Thesis, Avignon, 2020. http://www.theses.fr/2020AVIG1202.

Der volle Inhalt der Quelle
Annotation:
La mer Méditerranée et les terres qui l’entourent ont eu un rôle central dans l’Histoire du monde. Ces espaces, habités ou parcourus, ont grandement évolué au cours des derniers millénaires, et se sont peu à peu structurés à travers l’apparition de divers objets géographiques tels les bourgs, les villes, les découpages administratifs… C’est à la croisée de ces dynamiques spatiales, historiques, et de l’établissement humain, qu’est appréhendée la notion de peuplement. Pour analyser son évolution autour de la Méditerranée de 1800 à 2010, une base de données de plus de 137 000 localités réparties dans tous les Etats riverains a été construite. Mais sont-elles toutes « méditerranéennes » ? La délimitation de l’espace méditerranéen est une ancienne et récurrente question toujours présente dans les recherches portant sur cet espace. Pour tenter d’y répondre, cinq variables ont été choisies pour construire un indice qui a permis de proposer une limite caractérisant les localités méditerranéennes. A partir de cet ensemble d’objets, et en prenant en compte la notion de dépendance au chemin, une analyse de l’évolution du peuplement autour de la mer Méditerranée été réalisée. Révélant des cycles, des trajectoires et divers autres phénomènes, elle a permis de mettre en lumière des formes d’organisations spatiales originales
The Mediterranean Sea and the surrounding lands have had a central role in the history of the world. These spaces, inhabited or traveled, have greatly evolved over the past millennia, and have gradually structured through the appearance of various geographical objects such as towns, cities, administrative divisions... It is at the crossroads of these spatial, historical, and human settlement dynamics, which is understood as the notion of settlement. To analyze its evolution around the Mediterranean from 1800 to 2010, a database of more than 137 000 localities distributed in all riparian states was built. But are they all "Mediterranean"?The delimitation of the Mediterranean area is an old and recurrent question always present in the researches on this space. To try to answer it, five variables were chosen to construct an index that allowed to propose a limit characterizing the Mediterranean localities. From this set of objects, and taking into account the notion of path dependence, an analysis of the evolution of the population around the Mediterranean Sea was carried out. Revealing cycles, trajectories and various other phenomena, it has brought to light forms of original space organizations
APA, Harvard, Vancouver, ISO und andere Zitierweisen
23

Bulone, Joseph. „Généralisation des méthodes de scan pour le test des circuits intégrés complexes et application à des circuits critiques en vitesse“. Phd thesis, Grenoble INPG, 1994. http://tel.archives-ouvertes.fr/tel-00344980.

Der volle Inhalt der Quelle
Annotation:
Cette thèse propose une extension des méthodes classiques de chemins de «scan». On utilise des opérateurs combinatoires plus généraux à la place des multiplexeurs à une seule sortie. Ils peuvent comporter des entrées et des sorties multiples. Ils peuvent boucler sur eux-mêmes par l'intermédiaire d'une ou plusieurs bascules. Lorsqu'ils vérifient certaines propriétés de bijectivité et qu'ils forment une structure propageant de l'information, alors cette structure est aussi utile que les chaînes du «scan» complet et s'utilise de manière semblable. Elle permet aussi une approche hiérarchique du test des circuits. On montre comment tirer profit de cette méthode plus générale pour réduire l'impact de la méthode de «scan» complet sur les performances de circuits complexes implantant des fonctions mathématiques courantes ou des séquenceurs. Des résultats sont donnés pour le cas réel d'un circuit CMOS, très rapide, spécifique pour le réseau numérique large bande et pour lequel les contraintes en vitesse étaient primordiales
APA, Harvard, Vancouver, ISO und andere Zitierweisen
24

Hamieh, Ahmed. „Planification automatique de chemins à l'intérieur de bâtiments basée sur un modèle BIM“. Thesis, Valenciennes, 2018. http://www.theses.fr/2018VALE0037/document.

Der volle Inhalt der Quelle
Annotation:
Plus de la moitié de la population mondiale vit aujourd’hui en zone urbaine et passe plus de 90 % de son temps à l’intérieur de bâtiments. Cette thèse propose un système, nommé BiMov, de planification automatique de chemin à l’intérieur de bâtiments, basé sur leur maquette numérique (un BIM au format IFC). Le processus consiste à exploiter les caractéristiques sémantiques, géométriques et topologiques des constituants du BIM afin de générer des graphes de navigation possible, en fonction du profil du navigant et de l’état conjoncturel d’accessibilité des espaces et transitions, dans lesquels le plus court chemin d’un point à un autre puisse être déterminé. BiMov s’appuie sur quatre modèles de données (1) un modèle de bâtiment déduit du BIM, qui représente et structure les caractéristiques essentielles du bâtiment en vue de la mobilité intérieure (2) un modèle de navigant à même de représenter ses caractéristiques d’encombrement, ses aptitudes aux déplacements horizontaux et verticaux ainsi que ses habilitations (3) un modèle de calendrier permettant de connaître l’état d’accessibilité des espaces et des transitions (4) un modèle de graphe sur trois niveaux de détails. Le niveau Macro représente un simple graphe de connectivité entre les espaces intérieurs voisins ; il permet aux architectes de vérifier leur conception architecturale en termes d’accessibilité. Le niveau Externe permet de connecter les espaces accessibles via leurs transitions horizontales ou verticales. Il est destiné aux navigants qui n’exigent pas un chemin détaillé pour se déplacer. Le niveau Interne intègre un maillage des espaces, en 2D pour la navigation au sol, en 3D pour la navigation de drones. Il est conçu pour considérer les obstacles intérieurs comme les meubles, les machines ou les équipements. Ce niveau est destiné aux navigants devant fiabiliser leur déplacement à l’intérieur des espaces, comme les manutentionnaires d’objets encombrants ou les robots mobiles. L’approche proposée a fait l’objet d’un développement informatique qui permet d’illustrer quelques scénarios de planification de chemin dans des modèles BIM d’origine externe à la thèse
More than 50% of humans today live in urban areas and spend more than 90 % of their time indoor. This thesis suggests a system, called BiMov, dedicated to automatic path planning in complex building based on their digital mockup (a BIM in IFC format). The process consists in exploiting the semantic, geometric and topologic features of the constituents of a BIM, so as to generate navigation graphs, taking into account the profile of Navigants as well as the operational state of accessibility of spaces and transitions, for finally determining a shortest path. BiMov is based on 4 data models: (1) a building model deduced from the BIM that represents and structures the building features that are relevant for indoor mobility (2) a Navigant model capable to represent its bulk size, abilities for horizontal and vertical displacements and social habilitations (3) a calendar model representing the conjectural state of accessibility of spaces and transitions (4) a navigation graph model with three levels of detail: the Macro level represents a simple graph of connectivity between neighboring interior spaces. It is intended to help architects verify their architectural design in terms of accessibility. The Extern level is used to connect accessible spaces via their horizontal or vertical transitions. This level is intended for Navigants who do not require a detailed path. The Intern level integrates a meshing of each space: a 2D mesh for planar mobility or a 3D mesh for drones. This level is intended for Navigants like bulky objects handlers of mobile robots, needing to validate a reliable path within spaces containing furniture, machinery or equipment. The proposed approach was implemented in a prototype software that allows to illustrate different path planning scenarios in BIM models that were generated externally
APA, Harvard, Vancouver, ISO und andere Zitierweisen
25

Jonglez, Baptiste. „Mécanismes de bout en bout pour améliorer la latence dans les réseaux de communication“. Thesis, Université Grenoble Alpes, 2020. http://www.theses.fr/2020GRALM048.

Der volle Inhalt der Quelle
Annotation:
Les technologies réseau qui font fonctionner Internet ont beaucoup évolué depuis ses débuts, mais il y a un aspect de la performance des réseaux qui a peu évolué : la latence. En 25 ans, le débit disponible en couche physique a augmenté de 5 ordres de grandeur, tandis que la latence s'est à peine améliorée d'un ordre de grandeur. La latence est en effet limitée par des contraintes physiques fortes comme la vitesse de la lumière.Cette évolution différenciée du débit et de la latence a un impact important sur la conception des protocoles et leur performance, et notamment sur les protocoles de transport comme TCP. En particulier, cette évolution est indirectement responsable du phénomène de "Bufferbloat" qui remplit les tampons des routeurs et exacerbe encore davantage le problème de la latence. De plus, les utilisateurs sont de plus en plus demandeurs d'applications très réactives. En conséquence, il est nécessaire d'introduire des nouvelles techniques pour réduire la latence ressentie par les utilisateurs.Le but de cette thèse est de réduire la latence ressentie en utilisant des mécanismes de bout en bout, par opposition aux mécanismes d'infrastructure réseau. Deux mécanismes de bout en bout sont proposés. Le premier consiste à multiplexer plusieurs messages ou flux de données dans une unique connexion persistante. Cela permet de mesurer plus finement les conditions du réseau (latence, pertes de paquet) et de mieux s'y adapter, par exemple avec de meilleures retransmissions. J'ai appliqué cette technique à DNS et je montre que la latence de bout en bout est grandement améliorée en cas de perte de paquet. Cependant, en utilisant un protocole comme TCP, il peut se produire un phénomène de blocage en ligne qui dégrade les performances. Il est possible d'utiliser QUIC ou SCTP pour s'affranchir de ce problème.Le second mécanisme proposé consiste à exploiter plusieurs chemins, par exemple du Wi-Fi, une connexion filaire, et de la 4G. L'idée est d'utiliser les chemins de faible latence pour transporter le trafic sensible en priorité, tandis que le reste du trafic peut profiter de la capacité combinée des différents chemins. Multipath TCP implémente en partie cette idée, mais ne tient pas compte du multiplexage. Intégrer le multiplexage donne davantage de visibilité au scheduler sur les besoins des flux de données, et permettrait à eux-ci de coopérer. Au final, on obtient un problème d'ordonnancement qui a été identifié très récemment, "l'ordonnancement multi-chemins sensible aux flux". Ma première contribution est de modéliser ce problème. Ma seconde contribution consiste à proposer un nouvel algorithme d'ordonnancement pour ce problème, SRPT-ECF, qui améliore la erformances des petits flux de données sans impacter celle des autres flux. Cet algorithme pourrait être utilisé dans une implémentation de MPQUIC (Multipath QUIC). De façon plusgénérale, ces résultats ouvrent des perspectives sur la coopération entre flux de données, avec des applications comme l'agrégation transparente de connexions Internet
The network technologies that underpin the Internet have evolved significantly over the last decades, but one aspect of network performance has remained relatively unchanged: latency. In 25 years, the typical capacity or "bandwidth" of transmission technologies has increased by 5 orders of magnitude, while latency has barely improved by an order of magnitude. Indeed, there are hard limits on latency, such as the propagation delay which remains ultimately bounded by the speed of light.This diverging evolution between capacity and latency is having a profound impact on protocol design and performance, especially in the area of transport protocols. It indirectly caused the Bufferbloat problem, whereby router buffers are persistently full, increasing latency even more. In addition, the requirements of end-users have changed, and they expect applications to be much more reactive. As a result, new techniques are needed to reduce the latency experienced by end-hosts.This thesis aims at reducing the experienced latency by using end-to-end mechanisms, as opposed to "infrastructure" mechanisms. Two end-to-end mechanisms are proposed. The first is to multiplex several messages or data flows into a single persistent connection. This allows better measurements of network conditions (latency, packet loss); this, in turn, enables better adaptation such as faster retransmission. I applied this technique to DNS messages, where I show that it significantly improves end-to-end latency in case of packet loss. However, depending on the transport protocol used, messages can suffer from Head-of-Line blocking: this problem can be solved by using QUIC or SCTP instead of TCP.The second proposed mechanism is to exploit multiple network paths (such as Wi-Fi, wired Ethernet, 4G). The idea is to use low-latency paths for latency-sensitive network traffic, while bulk traffic can still exploit the aggregated capacity of all paths. This idea was partially realized by Multipath TCP, but it lacks support for multiplexing. Adding multiplexing allows data flows to cooperate and ensures that the scheduler has better visibility on the needs of individual data flows. This effectively amounts to a scheduling problem that was identified only very recently in the literature as "stream-aware multipath scheduling". My first contribution is to model this scheduling problem. As a second contribution, I proposed a new stream-aware multipath scheduler, SRPT-ECF, that improves the performance of small flows without impacting larger flows. This scheduler could be implemented as part of a MPQUIC (Multipath QUIC) implementation. More generally, these results open new opportunities for cooperation between flows, with applications such as improving WAN aggregation
APA, Harvard, Vancouver, ISO und andere Zitierweisen
26

Kamal-Idrissi, Assia. „Optimisation des réseaux aériens : analyse et sélection de nouveaux marchés“. Thesis, Université Côte d'Azur, 2020. https://tel.archives-ouvertes.fr/tel-03177526.

Der volle Inhalt der Quelle
Annotation:
Les problèmes rencontrés dans l’industrie aérienne sont divers et compliqués. Leur résolution réduit les coûts et maximise les revenus tout en améliorant la qualité de service, par exemple, en capturant de nouveaux passagers sur des vols existants ou sur de nouveaux marchés. La sélection des nouveaux marchés permet de définir la structure du réseau à opérer, et d’estimer le flux des passagers, leurs choix d’itinéraires ainsi que les revenus et les coûts impliqués par ces décisions. Nos travaux concernent l’amélioration du calculateur de parts de marché dans l’application PlanetOptim de la startup Milanamos. Cet outil permet aux décideurs des aéroports et des compagnies aériennes d’analyser l’historique des données et de simuler des marchés afin de trouver une opportunité économique. Ces travaux sont orientés vers les niveaux de décision stratégiques et tactiques. Grâce à une analyse poussée des données, le réseau aérien a pu être modélisé par un graphe indépendant du temps stocké dans une base de données orientée grapheNeo4j. Nous avons alors défini le Flight Radius Problem dont la résolution permet de déterminer un sous-réseau centré autour d’un vol pour lequel les parts de marchés du vol sont non négligeables. Plusieurs méthodes de résolution ont été proposées basées sur des requêtes ou des algorithmes de plus courts chemins couplés à des techniques d’accélération et de parallélisme. Nos algorithmes identifient rapidement un ensemble de marchés prometteurs centré sur un vol. L’intégration de la théorie des graphes dans les bases de données ouvre de nouvelles perspectives pour l’analyse et la compréhension de grands réseaux
In the airline industry, problems are various and complicated. Solving these problems aims at reducing costs and maximizing revenues. Revenues can be increased while improving the quality of service. For example, one way is to catch new passengers on existing flight connections or on new markets. The selection of new markets consists in determining network structure to operate, and to estimate passengers flow, their choice of itineraries as well as incomes and costs incurred by these decisions. Our research is about improving market planner engine. Milanamos develops an application for the analysis and simulation of markets intended for air-ports and airlines. It offers its customers a decision-making tool to analyze historical data andto simulate markets in order to find an economic opportunity. This project takes place earlierin the decision process. Thanks to a thorough data analysis, the air transport network could be modelized as a time-independent graph and stored in the Neo4j graph database. We then defined the Flight Radius problem which resolution allows to determine a sub-network centered around a flight for which market shares of the flight are meaningful. Several methods have beenproposed based on queries or on shortest path algorithms combined with acceleration and parallelism techniques. Our algorithms identify some new markets for a flight. Combining graph theory with databases offers new opportunities for analyzing and studying large networks
APA, Harvard, Vancouver, ISO und andere Zitierweisen
27

Rahmouni, Maher. „Ordonnancement et optimisations pour la synthèse de haut niveau des circuits de controle“. Grenoble INPG, 1997. http://www.theses.fr/1997INPG0028.

Der volle Inhalt der Quelle
Annotation:
La plupart des algorithmes d'ordonnancement existants dans le domaine de la synthese de haut niveau sont concus pour des applications dominees par les donnees telles que les applications de traitement de signal. Ces algorithmes ont pour objectif de minimiser le cout de la partie operative. Cependant, dans les circuits de commande modernes, les performances de la partie controle dominent la performance globale du circuit. Il est donc necessaire de prendre en compte les caracteristiques de ces applications et de developper un ensemble de techniques qui permettent de minimiser le cout de la partie controle. Cette these presente de nouvelles techniques d'ordonnancement pour differentes architectures de controleur ainsi qu'une etude sur l'interpretation des structures du langage vhdl par la synthese de haut niveau. Les approches developpees se concentrent sur l'optimisation de la surface du controleur et de la performance du circuit. Le principe de ces techniques est d'analyser les differents chemins d'execution de la description comportementale du circuit representee sous forme d'un graphe de flot de controle. Les algorithmes realises ont ete integres dans l'outil de synthese de haut niveau amical. Les resultats montrent leur efficacite sur des exemples reels de circuits domines par le controle.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
28

Borozan, Valentin. „Proper and weak-proper trees in edges-colored graphs and multigraphs“. Phd thesis, Université Paris Sud - Paris XI, 2011. http://tel.archives-ouvertes.fr/tel-00738959.

Der volle Inhalt der Quelle
Annotation:
Dans la présente thèse nous étudions l'extraction d'arbres dans des graphes arêtes-coloriés.Nous nous concentrons sur la recherche d'arbres couvrants proprement arête-coloriés et faiblement arête-coloriés, notée PST et WST. Nous montrons que les versions d'optimisation de ces problèmes sont NP-Complete dans le cas général des graphes arêtes-coloriés, et nous proposons des algorithmes pour trouver ces arbres dans le cas des graphes arêtes-coloriés sans cycles proprement arêtes-coloriés.Nous donnons également quelques limites de nonapproximabilité. Nous proposons des conditions suffisantes pour l'existence de la PST dans des graphes arêtes-coloriés (pas forcément propre), en fonction de différents paramètres de graphes, tels que : nombre total de couleurs, la connectivité et le nombre d'arêtes incidentes dedifférentes couleurs pour un sommet. Nous nous intéressons aux chemins hamiltoniens proprement arêtes-coloriés dans le casdes multigraphes arêtes-coloriés. Ils présentent de l'intérêt pour notre étude, car ce sontégalement des arbres couvrants proprement arêtes-coloriés. Nous établissons des conditions suffisantes pour qu'un multigraphe contienne un chemin hamiltonien proprement arêtes-coloriés, en fonction de plusieurs paramètres tels que le nombre d'arêtes, le degré d'arêtes, etc. Puisque l'une des conditions suffisantes pour l'existence des arbres couvrants proprement arêtes-coloriés est la connectivité, nous prouvons plusieurs bornes supérieures pour le plus petit nombre de couleurs nécessaires pour la k-connectivité-propre. Nous énonçons plusieurs conjectures pour les graphes généraux et bipartis, et on arrive à les prouver pour k = 1.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
29

Salazar, Javier. „Resource allocation optimization algorithms for infrastructure as a service in cloud computing“. Thesis, Sorbonne Paris Cité, 2016. http://www.theses.fr/2016USPCB074.

Der volle Inhalt der Quelle
Annotation:
L’informatique, le stockage des données et les applications à la demande font partie des services offerts par l’architecture informatique en Nuage. Dans ce cadre, les fournisseurs de nuage (FN) agissent non seulement en tant qu’administrateurs des ressources d'infrastructure mais ils profitent aussi financièrement de la location de ces ressources. Dans cette thèse, nous proposons trois modèles d'optimisation du processus d'allocation des ressources dans le nuage dans le but de réduire les coûts générés et d’accroitre la qualité du service rendu. Cela peut être accompli en fournissant au FN les outils formels nécessaires pour réduire au minimum le prix des ressources dédiées à servir les requêtes des utilisateurs. Ainsi, la mise en œuvre des modèles proposés permettra non seulement l’augmentation des revenus du FN, mais aussi l’amélioration de la qualité des services offerts, ce qui enrichira l’ensemble des interactions qui se produisent dans le nuage. A cet effet, nous nous concentrons principalement sur les ressources de l’infrastructure en tant que service (IaaS), lesquels sont contenus dans des centres de données (DCs), et constituent l'infrastructure physique du nuage. Comme une alternative aux immenses DCs centralisés, la recherche dans ce domaine comprend l’installation de petits centres de données (Edge DCs) placés à proximité des utilisateurs finaux. Dans ce contexte nous adressons le problème d’allocation des ressources et pour ce faire nous utilisons la technique d'optimisation nommée génération de colonnes. Cette technique nous permet de traiter des modèles d'optimisation à grande échelle de manière efficace. La formulation proposée comprend à la fois, et dans une seule phase, les communications et les ressources informatiques à optimiser dans le but de servir les requêtes de service d'infrastructure. Sur la base de cette formulation, nous proposons également un deuxième modèle qui comprend des garanties de qualité de service toujours sous la même perspective d'allocation des ressources d’infrastructure en tant que service. Ceci nous permet de fournir plusieurs solutions applicables à divers aspects du même problème, tels que le coût et la réduction des délais, tout en offrant différents niveaux de service. En outre, nous introduisons le scénario informatique en nuage multimédia, qui, conjointement avec l'architecture des Edge DCs, résulte en l'architecture Multimédia Edge Cloud (MEC). Dans ce cadre, nous proposons une nouvelle approche pour l'allocation des ressources dans les architectures informatique en nuage multimédia lors du positionnement de ces DCs afin de réduire les problèmes liés à la communication, tels que la latence et la gigue. Dans cette formulation, nous proposons également de mettre en œuvre des technologies optiques de réseau de fibres pour améliorer les communications entre les DCs. Plusieurs travaux ont proposé de nouvelles méthodes pour améliorer la performance et la transmission de données. Dans nos travaux, nous avons décidé de mettre en œuvre le multiplexage en longueur d'onde (WDM) pour renforcer l'utilisation des liens et les chemins optiques dans le but de grouper différents signaux sur la même longueur d'onde. Un environnement de simulation réel est également présenté pour l’évaluation des performances et de l'efficacité des approches proposées. Pour ce faire, nous utilisons le scénario spécifié pour les DCs, et nous comparons par simulation nos modèles au moyen de différents critères de performances tel que l'impact de la formulation optique sur la performance du réseau. Les résultats numériques obtenus ont montré que, en utilisant nos modèles, le FN peut efficacement réduire les coûts d'allocation en maintenant toujours un niveau satisfaisant quant à l'acceptation de requêtes et la qualité du service
The cloud architecture offers on-demand computing, storage and applications. Within this structure, Cloud Providers (CPs) not only administer infrastructure resources but also directly benefit from leasing them. In this thesis, we propose three optimization models to assist CPs reduce the costs incurred in the resource allocation process when serving users’ demands. Implementing the proposed models will not only increase the CP’s revenue but will also enhance the quality of the services offered, benefiting all parties. We focus on Infrastructure as a Service (IaaS) resources which constitute the physical infrastructure of the cloud and are contained in datacenters (DCs). Following existing research in DC design and cloud computing applications, we propose the implementation of smaller DCs (Edge DCs) be located close to end users as an alternative to large centralized DCs. Lastly, we use the Column Generation optimization technique to handle large scale optimization models efficiently. The proposed formulation optimizes both the communications and information technology resources in a single phase to serve IaaS requests. Based on this formulation, we also propose a second model that includes QoS guarantees under the same Infrastructure as a Service resource allocation perspective, to provide different solutions to diverse aspects of the resource allocation problem such as cost and delay reduction while providing different levels of service. Additionally, we consider the multimedia cloud computing scenario. When Edge DCs architecture is applied to this scenario it results in the creation of the Multimedia Edge Cloud (MEC) architecture. In this context we propose a resource allocation approach to help with the placement of these DCs to reduce communication related problems such as jitter and latency. We also propose the implementation of optical fiber network technologies to enhance communication between DCs. Several studies can be found proposing new methods to improve data transmission and performance. For this study, we decided to implement Wavelength Division Multiplexing (WDM) to strengthen the link usage and light-paths and, by doing so, group different signals over the same wavelength. Using a realistic simulation environment, we evaluate the efficiency of the approaches proposed in this thesis using a scenario specifically designed for the DCs, comparing them with different benchmarks and also simulating the effect of the optical formulation on the network performance. The numerical results obtained show that by using the proposed models, a CP can efficiently reduce allocation costs while maintaining satisfactory request acceptance and QoS ratios
APA, Harvard, Vancouver, ISO und andere Zitierweisen
30

Salazar, Javier. „Resource allocation optimization algorithms for infrastructure as a service in cloud computing“. Electronic Thesis or Diss., Sorbonne Paris Cité, 2016. http://www.theses.fr/2016USPCB074.

Der volle Inhalt der Quelle
Annotation:
L’informatique, le stockage des données et les applications à la demande font partie des services offerts par l’architecture informatique en Nuage. Dans ce cadre, les fournisseurs de nuage (FN) agissent non seulement en tant qu’administrateurs des ressources d'infrastructure mais ils profitent aussi financièrement de la location de ces ressources. Dans cette thèse, nous proposons trois modèles d'optimisation du processus d'allocation des ressources dans le nuage dans le but de réduire les coûts générés et d’accroitre la qualité du service rendu. Cela peut être accompli en fournissant au FN les outils formels nécessaires pour réduire au minimum le prix des ressources dédiées à servir les requêtes des utilisateurs. Ainsi, la mise en œuvre des modèles proposés permettra non seulement l’augmentation des revenus du FN, mais aussi l’amélioration de la qualité des services offerts, ce qui enrichira l’ensemble des interactions qui se produisent dans le nuage. A cet effet, nous nous concentrons principalement sur les ressources de l’infrastructure en tant que service (IaaS), lesquels sont contenus dans des centres de données (DCs), et constituent l'infrastructure physique du nuage. Comme une alternative aux immenses DCs centralisés, la recherche dans ce domaine comprend l’installation de petits centres de données (Edge DCs) placés à proximité des utilisateurs finaux. Dans ce contexte nous adressons le problème d’allocation des ressources et pour ce faire nous utilisons la technique d'optimisation nommée génération de colonnes. Cette technique nous permet de traiter des modèles d'optimisation à grande échelle de manière efficace. La formulation proposée comprend à la fois, et dans une seule phase, les communications et les ressources informatiques à optimiser dans le but de servir les requêtes de service d'infrastructure. Sur la base de cette formulation, nous proposons également un deuxième modèle qui comprend des garanties de qualité de service toujours sous la même perspective d'allocation des ressources d’infrastructure en tant que service. Ceci nous permet de fournir plusieurs solutions applicables à divers aspects du même problème, tels que le coût et la réduction des délais, tout en offrant différents niveaux de service. En outre, nous introduisons le scénario informatique en nuage multimédia, qui, conjointement avec l'architecture des Edge DCs, résulte en l'architecture Multimédia Edge Cloud (MEC). Dans ce cadre, nous proposons une nouvelle approche pour l'allocation des ressources dans les architectures informatique en nuage multimédia lors du positionnement de ces DCs afin de réduire les problèmes liés à la communication, tels que la latence et la gigue. Dans cette formulation, nous proposons également de mettre en œuvre des technologies optiques de réseau de fibres pour améliorer les communications entre les DCs. Plusieurs travaux ont proposé de nouvelles méthodes pour améliorer la performance et la transmission de données. Dans nos travaux, nous avons décidé de mettre en œuvre le multiplexage en longueur d'onde (WDM) pour renforcer l'utilisation des liens et les chemins optiques dans le but de grouper différents signaux sur la même longueur d'onde. Un environnement de simulation réel est également présenté pour l’évaluation des performances et de l'efficacité des approches proposées. Pour ce faire, nous utilisons le scénario spécifié pour les DCs, et nous comparons par simulation nos modèles au moyen de différents critères de performances tel que l'impact de la formulation optique sur la performance du réseau. Les résultats numériques obtenus ont montré que, en utilisant nos modèles, le FN peut efficacement réduire les coûts d'allocation en maintenant toujours un niveau satisfaisant quant à l'acceptation de requêtes et la qualité du service
The cloud architecture offers on-demand computing, storage and applications. Within this structure, Cloud Providers (CPs) not only administer infrastructure resources but also directly benefit from leasing them. In this thesis, we propose three optimization models to assist CPs reduce the costs incurred in the resource allocation process when serving users’ demands. Implementing the proposed models will not only increase the CP’s revenue but will also enhance the quality of the services offered, benefiting all parties. We focus on Infrastructure as a Service (IaaS) resources which constitute the physical infrastructure of the cloud and are contained in datacenters (DCs). Following existing research in DC design and cloud computing applications, we propose the implementation of smaller DCs (Edge DCs) be located close to end users as an alternative to large centralized DCs. Lastly, we use the Column Generation optimization technique to handle large scale optimization models efficiently. The proposed formulation optimizes both the communications and information technology resources in a single phase to serve IaaS requests. Based on this formulation, we also propose a second model that includes QoS guarantees under the same Infrastructure as a Service resource allocation perspective, to provide different solutions to diverse aspects of the resource allocation problem such as cost and delay reduction while providing different levels of service. Additionally, we consider the multimedia cloud computing scenario. When Edge DCs architecture is applied to this scenario it results in the creation of the Multimedia Edge Cloud (MEC) architecture. In this context we propose a resource allocation approach to help with the placement of these DCs to reduce communication related problems such as jitter and latency. We also propose the implementation of optical fiber network technologies to enhance communication between DCs. Several studies can be found proposing new methods to improve data transmission and performance. For this study, we decided to implement Wavelength Division Multiplexing (WDM) to strengthen the link usage and light-paths and, by doing so, group different signals over the same wavelength. Using a realistic simulation environment, we evaluate the efficiency of the approaches proposed in this thesis using a scenario specifically designed for the DCs, comparing them with different benchmarks and also simulating the effect of the optical formulation on the network performance. The numerical results obtained show that by using the proposed models, a CP can efficiently reduce allocation costs while maintaining satisfactory request acceptance and QoS ratios
APA, Harvard, Vancouver, ISO und andere Zitierweisen
31

Hadachi, Amnir. „Travel Time Estimation Using Sparsely Sampled Probe GPS Data in Urban Road Networks Context“. Phd thesis, INSA de Rouen, 2013. http://tel.archives-ouvertes.fr/tel-00800203.

Der volle Inhalt der Quelle
Annotation:
This dissertation is concerned with the problem of estimating travel time per links in urban context using sparsely sampled GPS data. One of the challenges in this thesis is use the sparsely sampled data. A part of this research work, i developed a digital map with its new geographic information system (GIS), dealing with map-matching problem, where we come out with an enhancement tecnique, and also the shortest path problem.The thesis research work was conduct within the project PUMAS, which is an avantage for our research regarding the collection process of our data from the real world field and also in making our tests. The project PUMAS (Plate-forme Urbaine de Mobilité Avancée et Soutenable / Urban Platform for Sustainable and Advanced Mobility) is a preindustrial project that has the objective to inform about the traffic situation and also to develop an implement a platform for sustainable mobility in order to evaluate it in the region, specifically Rouen, France. The result is a framework for any traffic controller or manager and also estimation researcher to access vast stores of data about the traffic estimation, forecasting and status.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
32

Glanon, Philippe Anicet. „Deployment of loop-intensive applications on heterogeneous multiprocessor architectures“. Electronic Thesis or Diss., université Paris-Saclay, 2020. http://www.theses.fr/2020UPASG029.

Der volle Inhalt der Quelle
Annotation:
Les systèmes cyber-physiques (CPS en anglais) sont des systèmes distribués qui intègrent un large panel d'applications logicielles et de ressources de calcul hétérogènes connectées par divers moyens de communication (filaire ou non-filaire). Ces systèmes ont pour caractéristique de traiter en temps-réel, un volume important de données provenant de processus physiques, chimiques ou biologiques. Une problématique essentielle dans la phase de conception des CPSs est de prédire le comportement temporel des applications logicielles et de fournir des garanties de performances pour ces applications. Afin de répondre à cette problématique, des stratégies d'ordonnancement statique sont nécessaires. Ces stratégies doivent tenir compte de plusieurs contraintes, notamment les contraintes de dépendances cycliques induites par les boucles de calcul des applications ainsi que les contraintes de ressource et de communication des architectures de calcul. En effet, les boucles étant l'une des parties les plus critiques en temps d'exécution pour plusieurs applications de calcul intensif, le comportement temporel et les performances optimales des applications logicielles dépendent de l'ordonnancement optimal des structures de boucles embarqués dans les programmes de calcul. Pour prédire le comportement temporel des applications logicielles et fournir des garanties de performances pour ces applications, les stratégies d'ordonnancement statiques doivent donc explorer et exploiter efficacement le parallélisme embarqué dans les patterns d'exécution des programmes à boucles intensives tout en garantissant le respect des contraintes de ressources et de communication des architectures de calcul. L'ordonnancement d'un programme à boucles intensives sous contraintes ressources et communication est un problème complexe et difficile. Afin de résoudre efficacement ce problème, il est indispensable de concevoir des heuristiques. Cependant, pour concevoir des heuristiques efficaces, il est important de caractériser l'ensemble des solutions optimales pour le problème d'ordonnancement. Une solution optimale pour un problème d'ordonnancement est un ordonnancement qui réalise un objectif optimal de performance. Dans cette thèse, nous nous intéressons au problème d'ordonnancement des programmes à boucles intensives sur des architectures de calcul multiprocesseurs hétérogènes sous des contraintes de ressource et de communication, avec l'objectif d'optimiser le débit de fonctionnement des applications logicielles. Pour ce faire, nous utilisons les modèles de flots de données statiques pour décrire les structures de boucles spécifiées dans les programmes de calcul et nous concevons des stratégies d'ordonnancement périodiques sur la base des propriétés structurelles et mathématiques de ces modèles afin de générer des solutions optimales et approximatives d'ordonnancement
Cyber-physical systems (CPSs) are distributed computing-intensive systems, that integrate a wide range of software applications and heterogeneous processing resources, each interacting with the other ones through different communication resources to process a large volume of data sensed from physical, chemical or biological processes. An essential issue in the design stage of these systems is to predict the timing behaviour of software applications and to provide performance guarantee to these applications. In order tackle this issue, efficient static scheduling strategies are required to deploy the computations of software applications on the processing architectures. These scheduling strategies should deal with several constraints, which include the loop-carried dependency constraints between the computational programs as well as the resource and communication constraints of the processing architectures intended to execute these programs. Actually, loops being one of the most time-critical parts of many computing-intensive applications, the optimal timing behaviour and performance of the applications depends on the optimal schedule of loops structures enclosed in the computational programs executed by the applications. Therefore, to provide performance guarantee for the applications, the scheduling strategies should efficiently explore and exploit the parallelism embedded in the repetitive execution patterns of loops while ensuring the respect of resource and communications constraints of the processing architectures of CPSs. Scheduling a loop under resource and communication constraints is a complex problem. To solve it efficiently, heuristics are obviously necessary. However, to design efficient heuristics, it is important to characterize the set of optimal solutions for the scheduling problem. An optimal solution for a scheduling problem is a schedule that achieve an optimal performance goal. In this thesis, we tackle the study of resource-constrained and communication-constrained scheduling of loop-intensive applications on heterogeneous multiprocessor architectures with the goal of optimizing throughput performance for the applications. In order to characterize the set of optimal scheduling solutions and to design efficient scheduling heuristics, we use synchronous dataflow (SDF) model of computation to describe the loop structures specified in the computational programs of software applications and we design software pipelined scheduling strategies based on the structural and mathematical properties of the SDF model
APA, Harvard, Vancouver, ISO und andere Zitierweisen
33

Rocheteau, Frédéric. „Extension du langage LUSTRE et application à la conception de circuits : le langage LUSTRE-V4 et le système POLLUX“. Phd thesis, 1992. http://tel.archives-ouvertes.fr/tel-00342092.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
34

Karabernou, Si Mohamoud. „Conception et réalisation d'un processeur pour une architecture cellulaire massivement parallèle intégrée“. Phd thesis, 1992. http://tel.archives-ouvertes.fr/tel-00343216.

Der volle Inhalt der Quelle
Annotation:
Cette thèse présente la conception et la réalisation en VLSI d'un processeur programmable pour une nouvelle architecture MIMD massivement parallèle, intermédiaire entre la connection machine et les hypercubes de processeurs 32 bits. Elle est composée d'une grille 2d de cellules asynchrones communiquant par échanges de messages. Chaque cellule intégré une partie de traitement qui consiste en un petit microprocesseur 8 bits dote d'une mémoire (données et programme), et une partie de routage permettant l'acheminement des messages. A l'issue de l'étude des différents problèmes de communication dans les machines parallèles, nous proposons un routeur original utilisant le principe du Wormhole, et permettant d'acheminer jusqu'à cinq messages en parallèle. Nous décrivons ensuite l'architecture de la partie de traitement, en partant de la définition du jeu d'instructions, du chemin de données et de la partie contrôle jusqu'à la conception au bas niveau. Un premier prototype d'un circuit VLSI de ce processeur a été réalise sur silicium et a permis d'obtenir les mesures des surfaces et des performances
APA, Harvard, Vancouver, ISO und andere Zitierweisen
35

Morin, Léonard Ryo. „Traffic prediction and bilevel network design“. Thesis, 2020. http://hdl.handle.net/1866/24801.

Der volle Inhalt der Quelle
Annotation:
Cette thèse porte sur la modélisation du trafic dans les réseaux routiers et comment celle-ci est intégrée dans des modèles d'optimisation. Ces deux sujets ont évolué de manière plutôt disjointe: le trafic est prédit par des modèles mathématiques de plus en plus complexes, mais ce progrès n'a pas été incorporé dans les modèles de design de réseau dans lesquels les usagers de la route jouent un rôle crucial. Le but de cet ouvrage est d'intégrer des modèles d'utilités aléatoires calibrés avec de vraies données dans certains modèles biniveaux d'optimisation et ce, par une décomposition de Benders efficace. Cette décomposition particulière s'avère être généralisable par rapport à une grande classe de problèmes communs dans la litérature et permet d'en résoudre des exemples de grande taille. Le premier article présente une méthodologie générale pour utiliser des données GPS d'une flotte de véhicules afin d'estimer les paramètres d'un modèle de demande dit recursive logit. Les traces GPS sont d'abord associées aux liens d'un réseau à l'aide d'un algorithme tenant compte de plusieurs facteurs. Les chemins formés par ces suites de liens et leurs caractéristiques sont utilisés afin d'estimer les paramètres d'un modèle de choix. Ces paramètres représentent la perception qu'ont les usagers de chacune de ces caractéristiques par rapport au choix de leur chemin. Les données utilisées dans cet article proviennent des véhicules appartenant à plusieurs compagnies de transport opérant principalement dans la région de Montréal. Le deuxième article aborde l'intégration d'un modèle de choix de chemin avec utilités aléatoires dans une nouvelle formulation biniveau pour le problème de capture de flot de trafic. Le modèle proposé permet de représenter différents comportements des usagers par rapport à leur choix de chemin en définissant les utilités d'arcs appropriées. Ces utilités sont stochastiques ce qui contribue d'autant plus à capturer un comportement réaliste des usagers. Le modèle biniveau est rendu linéaire à travers l'ajout d'un terme lagrangien basé sur la dualité forte et ceci mène à une décomposition de Benders particulièrement efficace. Les expériences numériques sont principalement menés sur un réseau représentant la ville de Winnipeg ce qui démontre la possibilité de résoudre des problèmes de taille relativement grande. Le troisième article démontre que l'approche du second article peut s'appliquer à une forme particulière de modèles biniveaux qui comprennent plusieurs problèmes différents. La décomposition est d'abord présentée dans un cadre général, puis dans un contexte où le second niveau du modèle biniveau est un problème de plus courts chemins. Afin d'établir que ce contexte inclut plusieurs applications, deux applications distinctes sont adaptées à la forme requise: le transport de matières dangeureuses et la capture de flot de trafic déterministe. Une troisième application, la conception et l'établissement de prix de réseau simultanés, est aussi présentée de manière similaire à l'Annexe B de cette thèse.
The subject of this thesis is the modeling of traffic in road networks and its integration in optimization models. In the literature, these two topics have to a large extent evolved independently: traffic is predicted more accurately by increasingly complex mathematical models, but this progress has not been incorporated in network design models where road users play a crucial role. The goal of this work is to integrate random utility models calibrated with real data into bilevel optimization models through an efficient Benders decomposition. This particular decomposition generalizes to a wide class of problems commonly found in the literature and can be used to solved large-scale instances. The first article presents a general methodology to use GPS data gathered from a fleet of vehicles to estimate the parameters of a recursive logit demand model. The GPS traces are first matched to the arcs of a network through an algorithm taking into account various factors. The paths resulting from these sequences of arcs, along with their characteristics, are used to estimate parameters of a choice model. The parameters represent users' perception of each of these characteristics in regards to their path choice behaviour. The data used in this article comes from trucks used by a number of transportation companies operating mainly in the Montreal region. The second article addresses the integration of a random utility maximization model in a new bilevel formulation for the general flow capture problem. The proposed model allows for a representation of different user behaviors in regards to their path choice by defining appropriate arc utilities. These arc utilities are stochastic which further contributes in capturing real user behavior. This bilevel model is linearized through the inclusion of a Lagrangian term based on strong duality which paves the way for a particularly efficient Benders decomposition. The numerical experiments are mostly conducted on a network representing the city of Winnipeg which demonstrates the ability to solve problems of a relatively large size. The third article illustrates how the approach used in the second article can be generalized to a particular form of bilevel models which encompasses many different problems. The decomposition is first presented in a general setting and subsequently in a context where the lower level of the bilevel model is a shortest path problem. In order to demonstrate that this form is general, two distinct applications are adapted to fit the required form: hazmat transportation network design and general flow capture. A third application, joint network design and pricing, is also similarly explored in Appendix B of this thesis.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
Wir bieten Rabatte auf alle Premium-Pläne für Autoren, deren Werke in thematische Literatursammlungen aufgenommen wurden. Kontaktieren Sie uns, um einen einzigartigen Promo-Code zu erhalten!

Zur Bibliographie