Tesi sul tema "Algorithmes de mise en cache"

Segui questo link per vedere altri tipi di pubblicazioni sul tema: Algorithmes de mise en cache.

Cita una fonte nei formati APA, MLA, Chicago, Harvard e in molti altri stili

Scegli il tipo di fonte:

Vedi i top-50 saggi (tesi di laurea o di dottorato) per l'attività di ricerca sul tema "Algorithmes de mise en cache".

Accanto a ogni fonte nell'elenco di riferimenti c'è un pulsante "Aggiungi alla bibliografia". Premilo e genereremo automaticamente la citazione bibliografica dell'opera scelta nello stile citazionale di cui hai bisogno: APA, MLA, Harvard, Chicago, Vancouver ecc.

Puoi anche scaricare il testo completo della pubblicazione scientifica nel formato .pdf e leggere online l'abstract (il sommario) dell'opera se è presente nei metadati.

Vedi le tesi di molte aree scientifiche e compila una bibliografia corretta.

1

Boussofiane, Fatiha. "Algorithmes de mise en correspondance pour la reconnaissance d'objets partiellement caches". Paris 11, 1992. http://www.theses.fr/1992PA112451.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Cette these presente des travaux concernant le developpement d'algorithmes de mise en correspondance pour l'interpretation de scene. Les techniques presentees utilisent des segments de droites decrivant les contours des formes. La premiere de ces methodes consiste a generer des chemins dans une table dont les colonnes correspondent aux segments du modele et les lignes aux segments de la scene. Chaque chemin est diagonal et correspond a l'appariement d'une partie du contour du modele a une partie du contour de la scene. Le chemin le plus long represente le meilleur appariement. Dans la seconde technique, afin de palier au probleme de la fragmentation de segment, on autorise la propagation verticale des chemins. Ainsi, plusieurs segments successifs de la scene peuvent correspondre a un seul segment du modele. Le plus long chemin constitue la encore la meilleure correspondance modele-scene. La troisieme methode est basee sur la relaxation d'etiquetage et utilise le tableau defini dans les techniques precedentes pour effectuer un traitement en parallele. A chaque appariement (segment modele, segment scene) est attribuee une probabilite de correspondance qui evolue en fonction de sa compatibilite avec les probabilites voisines. Les valeurs convergent, apres un certain nombre d'iterations, vers zero ou un. Dans le tableau, les chaines de probabilites egales a un correspondent a des appariements modele-scene. La plus longue represente le meilleur d'entre eux
2

Zhao, Hui. "High performance cache-aided downlink systems : novel algorithms and analysis". Electronic Thesis or Diss., Sorbonne université, 2022. http://www.theses.fr/2022SORUS366.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
La thèse aborde d'abord le pire goulot d'étranglement de la mise en cache codée sans fil, qui est connue pour diminuer considérablement les gains de multidiffusion assistée par cache. Nous présentons un nouveau schéma, appelé mise en cache codée agrégée, qui peut récupérer entièrement les gains de mise en cache codée en capitalisant sur les informations partagées apportées par la contrainte de taille de fichier effectivement inévitable. La thèse passe ensuite à des scénarios avec des émetteurs avec des réseaux multi-antennes. En particulier, nous considérons maintenant le scénario multi-utilisateurs assisté par cache multi-antennes, où l'émetteur multi-antennes délivre des flux de mise en cache codés, pouvant ainsi servir plusieurs utilisateurs à la fois, avec des chaînes de radio fréquences (RF) réduites. Ce faisant, la mise en cache codée peut aider un simple formateur de faisceau analogique (une seule chaîne RF), entraînant ainsi des économies considérables d'énergie et de matériel. Enfin, après avoir supprimé la limitation de la chaîne RF, la thèse étudie les performances de la technique de mise en cache codée par vecteur et révèle que cette technique peut atteindre, sous plusieurs hypothèses réalistes, une augmentation multiplicative du taux de somme par rapport à la contrepartie optimisée multi-antennes sans cache. En particulier, pour un système MIMO de liaison descendante déjà optimisé pour exploiter à la fois les gains de multiplexage et de formation de faisceaux, notre analyse répond à une question simple: quelle est l'augmentation de débit multiplicative obtenue en introduisant des caches côté récepteur de taille raisonnable ?
The thesis first addresses the worst-user bottleneck of wireless coded caching, which is known to severely diminish cache-aided multicasting gains. We present a novel scheme, called aggregated coded caching, which can fully recover the coded caching gains by capitalizing on the shared side information brought about by the effectively unavoidable file-size constraint. The thesis then transitions to scenarios with transmitters with multi-antenna arrays. In particular, we now consider the multi-antenna cache-aided multi-user scenario, where the multi-antenna transmitter delivers coded caching streams, thus being able to serve multiple users at a time, with a reduced radio frequency (RF) chains. By doing so, coded caching can assist a simple analog beamformer (only a single RF chain), thus incurring considerable power and hardware savings. Finally, after removing the RF-chain limitation, the thesis studies the performance of the vector coded caching technique, and reveals that this technique can achieve, under several realistic assumptions, a multiplicative sum-rate boost over the optimized cacheless multi-antenna counterpart. In particular, for a given downlink MIMO system already optimized to exploit both multiplexing and beamforming gains, our analysis answers a simple question: What is the multiplicative throughput boost obtained from introducing reasonably-sized receiver-side caches?
3

Abousabea, Emad Mohamed Abd Elrahman. "Optimization algorithms for video service delivery". Thesis, Evry, Institut national des télécommunications, 2012. http://www.theses.fr/2012TELE0030/document.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
L'objectif de cette thèse est de fournir des algorithmes d'optimisation pour l'accès aux services vidéo qu’ils soient non-gérés (Internet TV) ou gérés (IPTV). Nous étudions des statistiques récentes concernant les services vidéo non-gérés comme YouTube et nous proposons des techniques d'optimisation appropriées qui pourraient améliorer l'accès aux fichiers vidéos et réduire le coût de cet accès. En outre, l’analyse des coûts joue un rôle important dans les décisions qui concernent la mise en cache des fichiers vidéos et celles liées au choix des périodes temporelles d'hébergement de ces fichiers sur les serveurs. En ce qui concerne les services vidéo gérés appelés IPTV, nous avons mené des expériences sur une architecture ouverte IPTV-collaboration entre différents opérateurs. Ce modèle est analysé selon un critère de coût d’investissement et d'exploitation à l'intérieur de la sphère domestique. En outre, nous avons introduit une solution d’optimisation dynamique de l'arbre « minimum spanning tree » (MST) pour le service IPTV multicast. Lors d’un accès nomade, les arbres statiques pourraient être incapables de fournir le service de manière efficace vu que l'utilisation de la bande passante augmente aux côté des points de streaming (racines de la topologie). Finalement, nous étudions des mesures de sécurité fiables en streaming vidéo basées sur la méthodologie de la chaîne de hachage et nous proposons un nouvel algorithme hybride. Nous effectuons des comparaisons entre les différentes manières utilisées dans la réalisation de la fiabilité des chaînes de hachage basées sur les classifications génériques
The aim of this thesis is to provide optimization algorithms for accessing video services either in unmanaged or managed ways. We study recent statistics about unmanaged video services like YouTube and propose suitable optimization techniques that could enhance files accessing and reduce their access costs. Moreover, this cost analysis plays an important role in decision making about video files caching and hosting periods on the servers. Under managed video services called IPTV, we conducted experiments for an open-IPTV collaborative architecture between different operators. This model is analyzed in terms of CAPEX and OPEX costs inside the domestic sphere. Moreover, we introduced a dynamic way for optimizing the Minimum Spanning Tree (MST) for multicast IPTV service. In nomadic access, the static trees could be unable to provide the service in an efficient manner as the utilization of bandwidth increases towards the streaming points (roots of topologies). Finally, we study reliable security measures in video streaming based on hash chain methodology and propose a new algorithm. Then, we conduct comparisons between different ways used in achieving reliability of hash chains based on generic classifications
4

Tsigkari, Dimitra. "Algorithms and Cooperation Models in Caching and Recommendation Systems". Electronic Thesis or Diss., Sorbonne université, 2022. http://www.theses.fr/2022SORUS210.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Dans le contexte des services de streaming vidéo à la demande, la mise en cache et la politique de recommandation ont un impact sur la satisfaction des utilisateurs, ainsi que des implications financières pour le fournisseur de contenu (CP) et le fournisseur du réseau de diffusion de contenu (CDN). Bien que la mise en cache et les recommandations soient traditionnellement décidées indépendamment les unes des autres, l'idée de concevoir ensemble ces décisions pourrait minimiser les coûts de distribution et le trafic Internet. Cette thèse suit cette direction d'exploitation de la codépendance de la mise en cache et des recommandations. Dans un premier temps, nous étudions le problème de l'optimisation simultanée de la mise en cache et des recommandations dans le but de maximiser l'expérience globale des utilisateurs. Cette optimisation simultanée est possible pour les CPs qui possèdent leur propre CDN dans les architectures d’aujourd’hui et du futur. Bien que nous montrions que ce problème est NP-difficile, notre analyse nous permet de fournir un algorithme d'approximation. Nous étudions ensuite le cas où les recommandations et la mise en cache sont décidées par deux entités distinctes (le CP et le CDN, respectivement) qui veulent maximiser leurs profits individuels. Sur la base d'outils de la théorie des jeux et de la théorie de l'optimisation, nous proposons un nouveau mécanisme de coopération entre les deux entités sur la base de recommandations. Cette coopération leur permet de concevoir une politique de recommandation qui favorise les contenus en cache et qui assure une répartition équitable des gains qui en résultent
In the context of on-demand video streaming services, both the caching allocation and the recommendation policy have an impact on the user satisfaction, and financial implications for the Content Provider (CP) and the Content Delivery Network (CDN). Although caching and recommendations are traditionally decided independently of each other, the idea of co-designing these decisions can lead to lower delivery costs and to less traffic at the backbone Internet. This thesis follows this direction of exploiting the interplay of caching and recommendations in the setting of streaming services. It approaches the subject through the perspective of the users, and then from a network-economical point of view. First, we study the problem of jointly optimizing caching and recommendations with the goal of maximizing the overall experience of the users. This joint optimization is possible for CPs that simultaneously act as CDN owners in today’s or future architectures. Although we show that this problem is NP-hard, through a careful analysis, we provide the first approximation algorithm for the joint problem. We then study the case where recommendations and caching are decided by two separate entities (the CP and the CDN, respectively) who want to maximize their individual profits. Based on tools from game theory and optimization theory, we propose a novel cooperation mechanism between the two entities on the grounds of recommendations. This cooperation allows them to design a cache-friendly recommendation policy that ensures a fair split of the resulting gains
5

Abousabea, Emad Mohamed Abd Elrahman. "Optimization algorithms for video service delivery". Electronic Thesis or Diss., Evry, Institut national des télécommunications, 2012. http://www.theses.fr/2012TELE0030.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
L'objectif de cette thèse est de fournir des algorithmes d'optimisation pour l'accès aux services vidéo qu’ils soient non-gérés (Internet TV) ou gérés (IPTV). Nous étudions des statistiques récentes concernant les services vidéo non-gérés comme YouTube et nous proposons des techniques d'optimisation appropriées qui pourraient améliorer l'accès aux fichiers vidéos et réduire le coût de cet accès. En outre, l’analyse des coûts joue un rôle important dans les décisions qui concernent la mise en cache des fichiers vidéos et celles liées au choix des périodes temporelles d'hébergement de ces fichiers sur les serveurs. En ce qui concerne les services vidéo gérés appelés IPTV, nous avons mené des expériences sur une architecture ouverte IPTV-collaboration entre différents opérateurs. Ce modèle est analysé selon un critère de coût d’investissement et d'exploitation à l'intérieur de la sphère domestique. En outre, nous avons introduit une solution d’optimisation dynamique de l'arbre « minimum spanning tree » (MST) pour le service IPTV multicast. Lors d’un accès nomade, les arbres statiques pourraient être incapables de fournir le service de manière efficace vu que l'utilisation de la bande passante augmente aux côté des points de streaming (racines de la topologie). Finalement, nous étudions des mesures de sécurité fiables en streaming vidéo basées sur la méthodologie de la chaîne de hachage et nous proposons un nouvel algorithme hybride. Nous effectuons des comparaisons entre les différentes manières utilisées dans la réalisation de la fiabilité des chaînes de hachage basées sur les classifications génériques
The aim of this thesis is to provide optimization algorithms for accessing video services either in unmanaged or managed ways. We study recent statistics about unmanaged video services like YouTube and propose suitable optimization techniques that could enhance files accessing and reduce their access costs. Moreover, this cost analysis plays an important role in decision making about video files caching and hosting periods on the servers. Under managed video services called IPTV, we conducted experiments for an open-IPTV collaborative architecture between different operators. This model is analyzed in terms of CAPEX and OPEX costs inside the domestic sphere. Moreover, we introduced a dynamic way for optimizing the Minimum Spanning Tree (MST) for multicast IPTV service. In nomadic access, the static trees could be unable to provide the service in an efficient manner as the utilization of bandwidth increases towards the streaming points (roots of topologies). Finally, we study reliable security measures in video streaming based on hash chain methodology and propose a new algorithm. Then, we conduct comparisons between different ways used in achieving reliability of hash chains based on generic classifications
6

Furis, Mihai Alexandru Johnson Jeremy. "Cache miss analysis of Walsh-Hadamard Transform algorithms /". Philadelphia : Drexel University, 2003. http://dspace.library.drexel.edu/handle/1721.1/109.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
7

Wang, Yun. "Stéréovision robotique algorithmes de mise en correspondance /". Grenoble 2 : ANRT, 1987. http://catalogue.bnf.fr/ark:/12148/cb37610700h.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
8

Adelbaset, Ahmed Yaser. "Algorithmes de mise en correspondance en stéréovision passive". Rennes 1, 2001. http://www.theses.fr/2001REN10013.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Principalement, notre but dans cette thèse est de présenter de nouvelles idées afin de réduire au minimum la complexité des algorithmes de la mise en correspondance stéréo. L'idée principale de notre algorithme est de décomposer le problème initial en problèmes indépendant, plus élémentaires et qui peuvent être résolus rapidement sans faire appel à des méthodes mathématiques compliquées. Pour réaliser cela, nous avons utilisé deux nouvelles propriétés d'images, appelées propriété de continuité et propriété de discontinuité, au lieu d'utiliser des propriétés classiques telles que le contour, les coins. . . Ces propriétés peuvent être extraites par un processus assez simple ne nécessitant aucune méthode de recherche. Ainsi, nous les utilisons pour représenter des lignes épipolaires par une nouvelle méthode.
9

PREVOST, DONALD. "Retines artificielles stochastiques : algorithmes et mise en uvre". Paris 11, 1995. http://www.theses.fr/1995PA112505.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Cette these traite de problemes de vision bas-niveau, lesquels entrent dans la classe des problemes inverses mal-poses au sens mathematique. Leur resolution est envisagee sous l'angle de l'approche bayesienne sur champ de markov. Specifiquement, nous etudions les algorithmes d'optimisation applicables a des fonctions d'energie semi-quadratiques, telles que rencontrees en vision bas-niveau (detection de contours, segmentation des textures, determination de mouvement ou stereovision). Ces energies sont definies sur un champ de markov couple. Notre premier objectif est de determiner des approches algorithmiques avantageuses selon les criteres de l'optimalite de la solution ; de la qualite de la restauration, des perspectives de parallelisation et de realisation materielle. Notre demarche consiste a considerer une tache simple: la restauration d'images avec prise en compte des discontinuites. Nous avons compare differents algorithmes dedies a cette tache, puis nous avons propose une methode stochastique, simple et parallelisable, que nous avons appelee relaxation quasi-statique (rqs). Le second objectif releve de l'implantation materielle optoelectronique. Nous proposons une architecture parallele de mise en uvre pour l'algorithme rqs. Celle-ci reflete la structure du champ de markov couple: elle est base sur l'operation conjuguee d'un reseau de resistance stochastique et d'un module binaire. Afin de demontrer la faisabilite de machines d'optimisation stochastique operant a cadence video, nous avons concu et teste un systeme realisant des calculs de monte-carlo sur le probleme du verre de spin. Ce systeme utilise un circuit integre cmos optoelectronique (collaboration avec l'ief, contrat dret n 92-139) et un generateur optique de figures de speckle
10

Issa, Hazem. "Mise en correspondance stéréoscopique par algorithmes génétiques : nouveaux codages". Lille 1, 2004. https://pepite-depot.univ-lille.fr/LIBRE/Th_Num/2004/50376-2004-3-4.pdf.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Un des objectifs de la vision artificielle est de percevoir le relief d'un environnement à partir d'une ou plusieurs images. La vision binoculaire constitue l'une des méthodes les plus utilisées dans ce domaine. Il s'agit de retrouver la géométrie spatiale d'une scène à partir de deux images prises sous des angles différents. Une des principales difficultés de cette méthode est la mise en correspondance d'indices visuels extraits des images stéréoscopiques. Les techniques séquentielles ou multi-résolutions ayant montré leurs limites, nous présentons dans cette thèse une approche globale pour la mise en correspondance de primitives de type point de contour. Dans cette approche l'appariement stéréoscopique est considéré comme un problème d'optimisation dont la résolution est basée sur les concepts de calcul génétique. Grâce à un codage spécifique, une fonction d'évaluation des solutions (fonction fitness) est construite à partir des contraintes stéréoscopiques. Un algorithme génétique est ensuite mis en oeuvre pour explorer l'espaces des solutions, à partir d'une population initiale de solutions et par application des opérations de sélection, de croisement et de mutation. Afin de réduire la complexité du problème de mise en correspondance, nous proposons une stratégie hiérarchique de recherche des appariements. L'évaluation de nos algorithmes de mise en correspondance, appliqués sur de nombreuses images stéréoscopiques, montre l'intérêt de notre approche pour la reconstruction 3D d'une scène. L'implémentation des procédures développées sur des structures parallèles spécifiques permettrait d'améliorer les temps d'exécutions et d'envisager une exploitation effective du procédé.
11

Issa, Hazem Postaire Jack-Gérard Ruichek Yassine. "Mise en correspondance stéréoscopique par algorithmes génétiques nouveaux codages /". Villeneuve d'Ascq : Université des sciences et technologies de Lille, 2004. https://iris.univ-lille1.fr/dspace/handle/1908/412.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Reproduction de : Thèse de doctorat : Automatique et Informatique industrielle : Lille 1 : 2004.
N° d'ordre (Lille 1) : 3441. Résumé en français et en anglais. Titre provenant de la page de titre du document numérisé. Bibliogr. p. [164]-170. Liste des publications.
12

Wang, Yun. "Stéréovision robotique : algorythmes de mise en correspondance". Paris 12, 1987. http://www.theses.fr/1987PA120006.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
13

Annichini, Collomb Aurore. "Vérification d'automates étendus : algorithmes d'analyse symbolique et mise en oeuvre". Phd thesis, Université Joseph Fourier (Grenoble), 2001. http://tel.archives-ouvertes.fr/tel-00004334.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Dans le cadre de la télécommunication, les entreprises développent des protocoles gérant le transfert de données entre machines. Ces protocoles fonctionnent sur le principe d'envoi de messages entre deux parties par l'intermédiaire de canaux non fiables. Pour s'assurer que tous les messages ont bien été reçus, les techniques employées consistent à réémettre les messages perdus et/ou à attendre un laps de temps déterminé avant de conclure à l'échec de la transmission. De plus, les systèmes sont souvent modélisés en fonction de paramètres. Nous avons travaillé sur un modèle mathématique permettant la vérification de spécifications (comportements attendus des systèmes) pour des protocoles manipulant à la fois des compteurs, des files d'attente ou des horloges, ainsi que des paramètres. Le but de l'analyse est de calculer l'ensemble des comportements possibles du système puis de vérifier qu'aucun d'eux ne viole une spécification attendue. Le problème ici est que cet ensemble est infini. En effet, un comportement est fonction des valeurs prises par les variables du système au cours de l'exécution et certaines sont définies sur un domaine infini. Il faut alors pouvoir représenter ces comportements de façon finie et aussi trouver des méthodes pour calculer en un temps fini un ensemble infini. Plus formellement, nous nous sommes placés dans le cadre de l'analyse automatique des systèmes (model-checking). La représentation choisie pour les modèles à compteurs et horloges paramétrés est une extension des matrices de bornes pour laquelle nous avons une méthode exacte d'accélération (calcul en un temps fini d'ensembles de comportements infinis). Du côté pratique, nous avons implanté ces méthodes dans un outil TReX qui est, à notre connaissance, le seul pouvant manipuler de manière exacte des compteurs, des horloges et des files d'attente. Nous avons pu vérifier des exemples conséquents tels que le protocole de retransmission bornée.
14

Ben, Ammar Hamza. "On models for performance evaluation and cache resources placement in multi-cache networks". Thesis, Rennes 1, 2019. http://www.theses.fr/2019REN1S006/document.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Au cours des dernières années, les fournisseurs de contenu ont connu une forte augmentation des demandes de contenus vidéo et de services riches en média. Compte tenu des limites de la mise à l'échelle du réseau et au-delà des réseaux de diffusion de contenu, les fournisseurs de services Internet développent leurs propres systèmes de mise en cache afin d'améliorer la performance du réseau. Ces facteurs expliquent l'enthousiasme à l'égard du concept de réseau centré sur le contenu et de sa fonction de mise en cache en réseau. La quantification analytique de la performance de la mise en cache n'est toutefois pas suffisamment explorée dans la littérature. De plus, la mise en place d'un système de caching efficace au sein d'une infrastructure réseau est très complexe et demeure une problématique ouverte. Pour traiter ces questions, nous présentons d'abord dans cette thèse un modèle générique et précis de cache nommé MACS (Markov chain-based Approximation of Caching Systems) qui peut être adapté très facilement pour représenter différents schémas de mise en cache et qui peut être utilisé pour calculer différentes mesures de performance des réseaux multi-cache. Nous avons ensuite abordé le problème de l'allocation des ressources de cache dans les réseaux avec capacité de caching. Moyennant notre outil analytique MACS, nous présentons une approche permettant de résoudre le compromis entre différentes mesures de performance en utilisant l'optimisation multi-objectif et nous proposons une adaptation de la métaheuristique GRASP pour résoudre le problème d'optimisation
In the last few years, Content Providers (CPs) have experienced a high increase in requests for video contents and rich media services. In view of the network scaling limitations and beyond Content Delivery Networks (CDNs), Internet Service Providers (ISPs) are developing their own caching systems in order to improve the network performance. These factors explain the enthusiasm around the Content-Centric Networking (CCN) concept and its in-network caching feature. The analytical quantification of caching performance is, however, not sufficiently explored in the literature. Moreover, setting up an efficient caching system within a network infrastructure is very complex and remains an open problem. To address these issues, we provide first in this thesis a fairly generic and accurate model of caching nodes named MACS (Markov chain-based Approximation of Caching Systems) that can be adapted very easily to represent different caching schemes and which can be used to compute different performance metrics of multi-cache networks. We tackled after that the problem of cache resources allocation in cache-enabled networks. By means of our analytical tool MACS, we present an approach that solves the trade-off between different performance metrics using multi-objective optimization and we propose an adaptation of the metaheuristic GRASP to solve the optimization problem
15

Constantin, Camélia. "Classement de services et de données par leur utilisation". Paris 6, 2007. http://www.theses.fr/2007PA066321.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
L'émergence des systèmes pair-à-pair et la possibilité de réaliser des calculs et d'échanger des données par des services web conduit à des systèmes d'intégration de données à large échelle où l'évaluation de requêtes et d'autres traitements complexes sont réalisés par composition de services. Un problème important dans ce type de systèmes est l'absence de connaissances globales. Il est difficile par exemple de choisir le meilleur pair pour le routage des requêtes, le meilleur service lors de la composition de services ou de décider parmi les données locales à un pair celles à rafraîchir, à mettre en cache, etc. La notion de choix implique celle de classement. Bien qu'il soit possible de comparer et classer des entités d'après leur contenu ou d'autres métadonnées associées, ces techniques sont généralement basées sur des descriptions homogènes et sémantiquement riches. Une alternative intéressante dans le contexte d'un système à large échelle est le classement basé sur les liens qui exploite les relations entre les différentes entités et permet de faire des choix fondés sur des informations globales. Cette thèse présente un nouveau modèle générique de classement de services fondé sur leurs liens de collaboration. Nous définissons une importance globale de service en exploitant des connaissances spécifiques sur sa contribution aux autres services à travers les appels reçus et les données échangées. L'importance peut être calculée efficacement par un algorithme asynchrone sans génération de messages supplémentaires. La notion de contribution est abstraite et nous avons étudié son instanciation dans le cadre de trois applications: (i) le classement de services basé sur les appels où la contribution reflète la sémantique des services ainsi que leur utilisation avec le temps; (ii) le classement de services par l'utilisation des données où la contribution des services est fondée sur l'utilisation de leurs données pendant l'évaluation des requêtes dans un entrepôt distribué; (iii) la définition des stratégies de cache distribuées qui sont basées sur la contribution d'une mise en cache des données à réduire la charge du système
The emergence of peer-to-peer systems and the possibility to use web services to perform computations and to exchange data lead to large-scale integration systems where query evaluation and other complex tasks are performed through service composition. A crucial problem in such systems is the lack of global knowledge. Therefore it is difficult to find the best peer for query routing, the best service for composition or to decide which local data of a peer must be refreshed or cached. Making a choice implies to perform a ranking. Although it is possible to rank entities according to their content or to other associated metadata, these techniques are generally based on homogeneous and semantically rich descriptions. An interesting alternative in the context of large-scale systems is a link-based ranking that exploits relations between the different entities and allows to make choices according to global information. This thesis presents a new generic service ranking model based on their collaboration links. We define a global service importance by exploiting specific knowledge about its contribution to other services through received calls and exchanged data. The importance may be computed efficiently by an asynchronous algorithm without additional messages. Our notion of contribution is abstract and we study its instantiation in the context of three applications: (i) service ranking based on calls where the contribution reflects the service semantics and usage; (ii) service ranking based on data usage where the service contribution is based on the usage of its data during the query evaluations in a distributed warehouse; (iii) distributed cache strategies based on the contribution of a data cache on a peer to reduce the cost the system workload
16

Nguer, El Hadji Mamadou. "Bibliothèques numériques à taxonomie centrale : modélisation et mise en oeuvre". Paris 11, 2010. http://www.theses.fr/2010PA112105.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Au cours de la dernière décennie, le développement des activités internationales relatives aux bibliothèques numériques a été en constante augmentation. Fondée sur le succès des programmes américains sur les bibliothèques numériques (Digital Library Initiative-1 et 2 et National Science Digital Library Program), de nombreux projets nationaux et internationaux de recherche sur les bibliothèques numériques ont été activement mis au point par les bibliothèques nationales, publiques et universitaires ou les différentes institutions de recherche. Parmi les projets les plus récents, le « European Initiative » réunit actuellement un grand nombre d’instituts de recherche, des musées, des institutions culturelles et des archives nationaux européens pour la conception et la mise en place de la bibliothèque européenne Europeana. Ces projets ont donné naissance à des bibliothèques numériques, des systèmes de collaboration et d’enseignement à distance avec de très grands volumes de données. Face à de telles quantités de données, l’utilisateur a besoin d’un moyen lui permettant de chercher les données facilement et d’une présentation personnalisée des données retournées. Dans le cadre de cette thèse, nous proposons un moyen permettant à l’utilisateur de personnaliser ses requêtes (requêtes avec préférences), des algorithmes performants pour l’évaluation des requêtes avec préférences sur des bases de données volumineuses et des résultats expérimentaux les validant. Nous présentons également un prototype de bibliothèque numérique à taxonomie centrale incorporant un service de recherche avec préférences et un service de notification des abonnés lors des événements qui les intéressent, tels que l’insertion, la modification ou la suppression d’un document, suivant leur profil
During the last decade, the development of large digital libraries has seen a steadily rising activity. Based on the success of the U. S. Programs on Digital Libraries (Digital Library Initiative-1 and 2 and National Science Digital Library Program), many national and international research projects have been financed by national libraries, public archives or various academic and research institutions. Among the recent projects, the "European Initiative" currently brings together a large number of research institutes, museums, cultural institutions and European national archives for the design and implementation of the European Digital Library Europeana. These projects have given rise to a number of digital libraries, collaborative systems, and e-learning environments storing very large volumes of data. Faced with such large amounts of data, users need support in two ways, among others: (a) an easy to use query facility for searching the data and (b) a personalized presentation of the data returned. The work presented in this thesis is in the area of digital libraries and has three major contributions: (a) supports users of digital libraries to customize their queries (preferences queries), (b) proposes efficient algorithms for evaluating preferences queries on large databases and (c) presents experimental results validating the performance of the proposed algorithms. Moreover, a prototype implementation of a digital library has been conducted, based on a central taxonomy and offering the following personalization services to its users: (a) querying with preferences and (b) a profile-based notification service alerting users when events of interest to them (such as insertion, modification or deletion of a document) occur in the library
17

Yakoubi, Driss. "Analyse et mise en oeuvre de nouveaux algorithmes en méthodes spectrales". Phd thesis, Université Pierre et Marie Curie - Paris VI, 2007. http://tel.archives-ouvertes.fr/tel-00361368.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Cette thèse est composée de trois parties. Dans la première, nous considérons un système d'équations Reynolds Averaged Navier-Stokes en 3D, modélisant le couplage de deux fluides turbulents ( par exemple, océan/atmosphére). Nous proposons un schéma numérique, et nous montrons sa convergence vers l'unique solution du modèle.
La seconde partie est consacrée à une extension des méthodes spectrales dans des géométries complexes. Cette nouvelle méthode s'appuie sur deux idées: traitement des conditions aux limites de Dirichlet par pénalisation, en suivant la méthode de Nitsche, et une approximation de la géométrie par des pavés, en utilisant une octree (par exemple).
Nous donnons des erreurs de projection polyômiale et des estimations a priori.
Enfin, la dernière partie est consacrée au calucl scientifique où on a implémenté en C++ et validé cette méthode dans le logiciel FreeFem3d.
18

Bengoechea, Endika. "Mise en correspondance inexacte de graphes par algorithmes d'estimation de distributions". Paris, ENST, 2002. http://www.theses.fr/2002ENST0034.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
19

Bengoetxea, Endika. "Mise en correspondance inexacte de graphes par algorithmes d'estimation de distributions /". Paris : École nationale supérieure des télécommunications, 2003. http://catalogue.bnf.fr/ark:/12148/cb39066885q.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Th. doct.--Signal et images--Paris--ENST, 2002. Titre de soutenance : Inexact graph matching using estimation of distribution algorithms.
Bibliogr. p. 193-211. Résumé en français et en anglais. Index.
20

Loudni, Samir. "Conception et mise en oeuvre d'algorithmes anytime : une approche à base de contraintes". Nantes, 2002. http://www.theses.fr/2002NANT2063.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Les nouveaux besoins de planification et d'optimisation en ligne des systèmes de télécommunications, seront un vecteur majeur pour l'augmentation de la qualité de service. Ces systèmes, afin qu'ils restent pertinents, devront devenir de plus en plus dynamiques (capacité à s'adapter à l'évolution de leur environnement), et permettre de fournir à tout moment une solution opérationnelle et de faire le meilleur usage du temps et des ressources mis à leur disposition, pour fournir la meilleure solution possible. Notre travail consiste à mettre au point des algorithmes anytime, capables d'exhiber très rapidement de "bonnes" solutions pour des problèmes fortement combinatoire. L'approche proposée combine la souplesse de la modélisation de la technologie programmation par contraintes et la puissance de résolution des algorithmes hybrides. Nous proposons une nouvelle méthode hybride, dénommée VNS/LDS+CP, dédiée à la résolution en contextes anytime des problèmes d'optimisation exprimées sous forme VCSP (Valued Constraint Satisfaction Problem).
21

Sharify, Meisam. "Algorithmes de mise à l'échelle et méthodes tropicales en analyse numérique matricielle". Phd thesis, Ecole Polytechnique X, 2011. http://pastel.archives-ouvertes.fr/pastel-00643836.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
L'Algèbre tropicale peut être considérée comme un domaine relativement nouveau en mathématiques. Elle apparait dans plusieurs domaines telles que l'optimisation, la synchronisation de la production et du transport, les systèmes à événements discrets, le contrôle optimal, la recherche opérationnelle, etc. La première partie de ce manuscrit est consacrée a l'étude des applications de l'algèbre tropicale à l'analyse numérique matricielle. Nous considérons tout d'abord le problème classique de l'estimation des racines d'un polynôme univarié. Nous prouvons plusieurs nouvelles bornes pour la valeur absolue des racines d'un polynôme en exploitant les méthodes tropicales. Ces résultats sont particulièrement utiles lorsque l'on considère des polynômes dont les coefficients ont des ordres de grandeur différents. Nous examinons ensuite le problème du calcul des valeurs propres d'une matrice polynomiale. Ici, nous introduisons une technique de mise à l'échelle générale, basée sur l'algèbre tropicale, qui s'applique en particulier à la forme compagnon. Cette mise à l'échelle est basée sur la construction d'une fonction polynomiale tropicale auxiliaire, ne dépendant que de la norme des matrices. Les raciness (les points de non-différentiabilité) de ce polynôme tropical fournissent une pré-estimation de la valeur absolue des valeurs propres. Ceci se justifie en particulier par un nouveau résultat montrant que sous certaines hypothèses faites sur le conditionnement, il existe un groupe de valeurs propres bornées en norme. L'ordre de grandeur de ces bornes est fourni par la plus grande racine du polynôme tropical auxiliaire. Un résultat similaire est valable pour un groupe de petites valeurs propres. Nous montrons expérimentalement que cette mise à l'échelle améliore la stabilité numérique, en particulier dans des situations où les données ont des ordres de grandeur différents. Nous étudions également le problème du calcul des valeurs propres tropicales (les points de non-différentiabilité du polynôme caractéristique) d'une matrice polynômiale tropicale. Du point de vue combinatoire, ce problème est équivalent à trouver une fonction de couplage: la valeur d'un couplage de poids maximum dans un graphe biparti dont les arcs sont valués par des fonctions convexes et linéaires par morceaux. Nous avons développé un algorithme qui calcule ces valeurs propres tropicales en temps polynomial. Dans la deuxième partie de cette thèse, nous nous intéressons à la résolution de problèmes d'affectation optimale de très grande taille, pour lesquels les algorithms séquentiels classiques ne sont pas efficaces. Nous proposons une nouvelle approche qui exploite le lien entre le problème d'affectation optimale et le problème de maximisation d'entropie. Cette approche conduit à un algorithme de prétraitement pour le problème d'affectation optimale qui est basé sur une méthode itérative qui élimine les entrées n'appartenant pas à une affectation optimale. Nous considérons deux variantes itératives de l'algorithme de prétraitement, l'une utilise la méthode Sinkhorn et l'autre utilise la méthode de Newton. Cet algorithme de prétraitement ramène le problème initial à un problème beaucoup plus petit en termes de besoins en mémoire. Nous introduisons également une nouvelle méthode itérative basée sur une modification de l'algorithme Sinkhorn, dans lequel un paramètre de déformation est lentement augmenté. Nous prouvons que cette méthode itérative(itération de Sinkhorn déformée) converge vers une matrice dont les entrées non nulles sont exactement celles qui appartiennent aux permutations optimales. Une estimation du taux de convergence est également présentée.
22

Krajecki, Michaël Gardan Yvon. "EQUILIBRE DE CHARGE DYNAMIQUE : ETUDE ET MISE EN UVRE DANS LE CADRE DES APPLICATIONS A NOMBRE FINI DE TACHES INDEPENDANTES ET IRREGULIERES /". [S.l.] : [s.n.], 1998. ftp://ftp.scd.univ-metz.fr/pub/Theses/1998/Krajecki.Michael.SMZ9818.pdf.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
23

Gatineau, Laurent. "Algorithmes concurrents pour les problemes de mise en correspondance dans les sequences d'images". Evry-Val d'Essonne, 2000. http://www.theses.fr/2000EVRY0004.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Cette these explore les apports possibles du parallelisme a deux traitements fondamentaux des sequences d'images : la mise en correspondance et l'estimation de mouvement. Une premiere partie situe les problemes de mise en correspondance et d'estimation de mouvement impliques : face a la tres grande diversite des methodes pour aborder la question, elle propose une approche de classification en 3 categories : methodes locales, methodes multiresolutions, methodes structurelles. Dans une deuxieme partie, pour chaque classe, les possibilites essentielles de parallelisme sont explorees, ainsi que les problemes associes. Pour certaines methodes, choisies pour l'interet de leur principe et la qualite de leurs resultats, des parallelisations sont proposees et experimentees. Pour pouvoir investiguer les parallelisations a grain fin et aussi a gros grain, deux types d'architectures sont utilisees : une architecture massivement parallele et un reseau de stations de travail. Une troisieme partie propose des elements de synthese, d'abord pour tenter de degager une problematique commune au niveau algorithmique, sans se lier trop a l'architecture, puis pour prendre en compte les questions d'optimisations et d'adaptations specifiques aux architectures.
24

Bonnier, Nicolas. "Contribution aux algorithmes de mise en correspondance de gammes de couleurs spatialement adaptatifs". Paris, ENST, 2008. http://pastel.archives-ouvertes.fr/pastel-00004856.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Obtenir une reproduction exacte d’une couleur dans une image donnée est impossible lorsque cette couleur ne fait pas partie de la gamme de couleurs que l’imprimante est en mesure de reproduire. Habituellement, la reproduction est obtenue en remplaçant la couleur originale par une couleur perçue comme étant proche de celle-ci et faisant partie de la gamme de couleurs de l’imprimante. Ceci est effectué par un algorithme de mise en correspondance de gammes de couleurs. Dans cette thèse nous décrivons le développement de nouveaux algorithmes de mise en correspondance de gammes de couleurs spatialement adaptatifs, qui agissent localement dans l’image afin de générer une reproduction plus fidèle. Leur objectif est de préserver les valeurs de couleur des pixels ainsi que leurs relations entre voisins. Nous proposons d’abord un cadre mathématique qui permet d’englober les algorithmes existants de mise en correspondance de gammes de couleur spatialement adaptatifs. Nous proposons alors deux nouveaux algorithmes de mise en correspondance de gammes de couleurs spatialement et colorimétriquement adaptatifs, par compression ou par projection. Nous examinons ensuite le rôle de la Fonction de Transfert de Modulation du système d’impression dans la perception de la qualité de l’image imprimée. La FTM de notre système d’impression est mesurée et nous proposons un algorithme pour compenser la FTM du système d’impression qui tient compte à la fois des fréquences et des niveaux de luminance locaux. Enfin, nous présentons l’évaluation des algorithmes proposés par deux expériences psychophysiques dont les résultats démontrent l’amélioration de la qualité de reproduction
Achieving an accurate print reproduction of a color present in a given image might be impossible when this color is not part of the gamut of colors that the printer can reproduce. Usually the reproduction is then achieved by replacing this color with a color perceived as close in the color gamut of the printer. This mapping to another color is made by a gamut mapping algorithm. In this thesis we describe the work carried out in the development of new spatial and color adaptive gamut mapping algorithms. These algorithms act locally in the image to generate a reproduction perceived as close to the original. Their goal is to preserve both the color values of the pixels and the colorimetric relations between neighbors. We first propose a mathematical framework encompassing the existing spatial gamut mapping algorithms. Next we introduce two new algorithms within the proposed mathematical framework. In the spatial and color adaptive compression we project each color pixel lying outside the output gamut toward the center, more or less deeply inside the gamut depending on its neighbors. In the spatial and color adaptive clipping the direction of the projection of each color pixel is a variable, set per pixel to better preserve the local energy in the resulting image. We then consider the role of the Modulation Transfer Function of the printing system in the perceived quality of the reproduction. We design a bias-dependent algorithm to optimally compensate for the MTF of the printing system. Lastly we present the evaluation of the proposed algorithms conducted within a psychophysical experiment, its results demonstrate the improvement in the quality of reproduction
25

Skhiri, Faouzi. "Étude et mise en oeuvre d'algorithmes de navigation d'un robot mobile autonome dans un environnement partiellement connu". Paris 12, 1994. http://www.theses.fr/1994PA120051.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
L'objectif de ce travail consiste a commander un robot mobile a roues afin de se deplacer dans un environnement connu mais avec des obstacles imprevus. Pour ce faire, une mise en uvre de l'instrumentation du robot est etudiee, d'une part d'un point de vue materiel, au niveau des capteurs exteroceptifs, d'autre part d'un point de vue logiciel au niveau des algorithmes de navigation. Cette mise en uvre est effectuee a travers une architecture de commande hierarchisee comportant trois niveaux, soit: planification, navigation et pilotage. Pour planifier une trajectoire, nous utilisons la methode des vecteurs de traversabilite en apportant des ameliorations a l'algorithme classique. La navigation locale est realisee par la methode des champs de potentiel. Notre contribution reside dans l'amelioration du comportement du robot, en particulier en modifiant dynamiquement les forces repulsives au cours de l'evolution. Par ailleurs, nous proposons une methode permettant d'eviter les minima locaux. Afin de permettre un recalage eventuel de la localisation relative fournie par l'odometrie, nous utilisons un systeme de localisation absolue par goniometrie. L'etude de quelques configurations nous a permis de trouver d'une part la meilleure structuration de l'environnement, et d'autre part les positions du robot dans l'environnement offrant les meilleurs resultats
26

Muracciole, Vincent. "Définition et mise en place d'un outil temps réel d'analyse des caractéristiques physiques des semences sèches". Phd thesis, Université d'Angers, 2009. http://tel.archives-ouvertes.fr/tel-00466401.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
L'objectif de la présente thèse est d'étudier, de définir et de mettre en place un système de vision artificielle permettant de discriminer la nature et la variété de semences à partir de leurs images numériques. Une première étude a porté sur l'étude d'un dispositif mono-caméra destiné au contrôle de la qualité de lots de semences dans l'optique de leur certification. Il est apparu qu'un système mono-caméra ne permettait pas d'identifier les semences dont les faces présentent une disparité de couleur. Ainsi, les semences endommagées ne peuvent pas être correctement détectées avec un tel dispositif. Une deuxième étude a porté sur l'étude et la réalisation d'un nouveau système d'acquisition, muni de trois caméras, et capable de prendre plusieurs images de plusieurs faces d'un même objet. Un prototype a été construit, reposant sur une nouvelle architecture optique et électronique. A l'aide de ce prototype, une collection d'images de semences et de contaminants a été acquise. Sur cette collection, des algorithmes de traitement d'images et de discrimination ont été testés. Les semences composant cette collection ont été caractérisées par plusieurs centaines de variables quantitatives, portant sur leur morphologie, leur couleur et leur texture. Plusieurs méthodes de discrimination ont été étudiées : l'analyse discriminante linéaire (ADL), l'analyse factorielle discriminante, l'analyse discriminante PLS et une méthode de réseau de neurones probabilistes à ajustement adaptatif de poids. Dans tous les cas, les variables ont été sélectionnées préalablement par ADL avec introduction successive des variables les plus discriminantes. L'existence de trois images numériques pour chaque objet étudié offre des possibilités nouvelles en ce qui concerne la prise de décision. Plusieurs heuristiques ont été testées. Nous avons comparé les résultats obtenus en concaténant les tableaux de caractéristiques acquises à l'aide des trois caméras ou en mettant en jeu une stratégie de vote, majoritaire ou unanime. Quelle que soit la stratégie de décision, le réseau de neurones probabilistes donne les résultats les meilleurs, légèrement supérieurs à ceux obtenus par l'ADL. Nous avons conclu que, en considérant la simplicité de l'analyse discriminante linéaire, cette méthode était la plus appropriée pour la réalisation d'un automate fonctionnant en temps réel et capable de répondre aux contraintes de la certification des lots de semences.
27

Auger, Nicolas. "Analyse réaliste d'algorithmes standards". Thesis, Paris Est, 2018. http://www.theses.fr/2018PESC1110/document.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
À l'origine de cette thèse, nous nous sommes intéressés à l'algorithme de tri TimSort qui est apparu en 2002, alors que la littérature sur le problème du tri était déjà bien dense. Bien qu'il soit utilisé dans de nombreux langages de programmation, les performances de cet algorithme n'avaient jamais été formellement analysées avant nos travaux. L'étude fine de TimSort nous a conduits à enrichir nos modèles théoriques, en y incorporant des caractéristiques modernes de l'architecture des ordinateurs. Nous avons, en particulier, étudié le mécanisme de prédiction de branchement. Grâce à cette analyse théorique, nous avons pu proposer des modifications de certains algorithmes élémentaires (comme l'exponentiation rapide ou la dichotomie) qui utilisent ce principe à leur avantage, améliorant significativement leurs performances lorsqu'ils sont exécutés sur des machines récentes. Enfin, même s'il est courant dans le cadre de l'analyse en moyenne de considérer que les entrées sont uniformément distribuées, cela ne semble pas toujours refléter les distributions auxquelles nous sommes confrontés dans la réalité. Ainsi, une des raisons du choix d'implanter TimSort dans des bibliothèques standard de Java et Python est probablement sa capacité à s'adapter à des entrées partiellement triées. Nous proposons, pour conclure cette thèse, un modèle mathématique de distribution non-uniforme sur les permutations qui favorise l'apparition d'entrées partiellement triées, et nous en donnons une analyse probabiliste détaillée
At first, we were interested in TimSort, a sorting algorithm which was designed in 2002, at a time where it was hard to imagine new results on sorting. Although it is used in many programming languages, the efficiency of this algorithm has not been studied formally before our work. The fine-grain study of TimSort leads us to take into account, in our theoretical models, some modern features of computer architecture. In particular, we propose a study of the mechanisms of branch prediction. This theoretical analysis allows us to design variants of some elementary algorithms (like binary search or exponentiation by squaring) that rely on this feature to achieve better performance on recent computers. Even if uniform distributions are usually considered for the average case analysis of algorithms, it may not be the best framework for studying sorting algorithms. The choice of using TimSort in many programming languages as Java and Python is probably driven by its efficiency on almost-sorted input. To conclude this dissertation, we propose a mathematical model of non-uniform distribution on permutations, for which permutations that are almost sorted are more likely, and provide a detailed probabilistic analysis
28

Gildemyn, Éric. "Caractérisation des procédés de frabrication de pièces de sécurité automobile. Optimisation multiobjectifs de la mise en forme". Paris, ENSAM, 2008. https://pastel.archives-ouvertes.fr/pastel-00004895.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Les pièces de sécurité automobile fabriquées en acier comme les ferrures d'ancrage de ceinture de sécurité ont vu leur coût de fabrication augmenter ces dernières années du fait de l'augmentation du prix des matières premières. De plus, ces pièces sont soumises à des normes européennes de plus en plus exigeantes. C'est pourquoi les équipementiers automobiles comme l'entreprise DEVILLÉ S. A. Cherchent aujourd'hui à développer des outils numériques permettant d'optimiser et de prédire le comportement de ces pièces à l'usage en intégrant l'ensemble du processus de fabrication. Le travail proposé ici s'efforce d'apporter une contribution à ce développement. L'utilisation de méthodes d'optimisation, en particulier un algorithme génétique NSGA-2, couplées avec des logiciels de conception et de calculs par éléments finis a permis d'améliorer différentes fonctions coût comme le dommage maximum subit par la pièce lors de sa conception ou encore l'effort maximal nécessaire à son dépliage… L'utilisation de réseaux de neurones pour réduire le temps d'optimisation global a également fait l'objet d'une étude. Ces méthodes numériques nécessitent la modélisation du comportement du matériau avec des lois de comportement et d'endommagement qui ont fait l'objet d'une étude expérimentale ainsi que d'une identification. Une méthode d'identification inverse a notamment permis de réduire l'erreur commise lors de la simulation numérique
Abstract : Automotive safety parts manufactured out of steel sheets are more and more expansive due to the increase in price of raw materials. Moreover, these parts are subjected to increasingly demanding European standards. This is why automobile equipment supplier, such as company DEVILLÉ S. A. Are looking to develop numerical tools in order to optimize and predict the behavior of these parts, in-service, by integrating the entire manufacturing process. The work presented here is a contribution to this end. The use of optimization methods, in particular a genetic algorithm called NSGA-2, coupled with CAD and finite elements codes made it possible to improve various cost functions like the maximum material damage value obtained in the part at the time of its design or the maximum effort necessary for unbending, etc. The use of neural networks to reduce the total calculation time has also been studied in this work. These numerical methods require the use of material behavior and damage laws which were the subject of an experimental study as well as the identification of the model parameters. In parti
29

Hoxha, Fatmir. "Calcul simultané des racines d'un polynome complexe : contribution à l'algorithmique et mise en oeuvre sur un réseau de processeurs". Toulouse, INPT, 1988. http://www.theses.fr/1988INPT048H.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Une methode de recherche simultanee des racines a ete developpee a partir d'une version initiale due a makrelov et semerdzhiev, generalisee au cas ou l'ordre de multiplicite des racines est inconnu et incluant un mecanisme d'acceleration de la convergence. La validation numerique de la demarche a ete effectuee dans un environnement d'execution sequentiel. L'implantation dans un environnement constitue par un ensemble de processeur faiblement couples, de type transputer, a montre l'efficacite de la parallelisation par une reduction sensible du temps d'execution avec le nombre de processeurs
30

Awad, Mohamad M. "Mise en oeuvre d'un système coopératif adaptatif de segmentation d'images multicomposantes". Rennes 1, 2008. http://www.theses.fr/2008REN1S031.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
The exploitation of images acquired by various sensors for a difficult application such as the Remote Sensing presents a wide investigation field and poses many problems for all levels of the image processing chain. Also, the development of adaptive and optimized segmentation and fusion methods proves out to be indispensable. Image segmentation and fusion are the key phases of all systems of recognition or interpretation by vision: the rate of identification or the quality of interpretation depends indeed closely on the sharpness of the analysis and the relevance of results of these phases. Although the topic was studied extensively in the literature, it does not exist a universal and efficient method of classification and fusion allowing an accurate identification of classes of a real image when this one is composed at a time of uniform regions (weak local variation of luminance) and of textured nature. In addition, the majority of these methods require a priori knowledge which is difficult to obtain in practice. Furthermore, they assume the existence of models which can estimate its parameters, and fit to given data. However, such a parametric approach is not robust and its performance is severely affected by the correctness of the utilized parametric model. In the framework of this thesis, a cooperative adaptive mutli-component image segmentation system using the minimum a priori knowledge is developed. The segmentation methods used in this system are nonparametric. The system works by analyzing the image in several hierarchical levels of complexity while integrating several methods in cooperation mechanisms. Three cooperative approaches are created between different methods such as Hybrid Genetic Algorithm, Fuzzy C-Means, Self-Organizing Map and Non-Uniform Rational B-Spline. In order to finalize image segmentation results, a fusion process of the results of the segmentation of the above three methods is used. The assessment of the system is achieved through several experiments by using different satellite and aerial images. The obtained results show the high efficiency and accuracy of developed system
Dans le domaine de la télédétection, l'exploitation des images acquises par divers capteurs présente un large champ d'investigation et pose de nombreux problèmes à tous les niveaux dans la chaîne de traitement des images. Aussi, le développement d’approches de segmentation et de fusion optimisées et adaptatives, s’avère indispensable. La segmentation et la fusion sont deux étapes essentielles dans tout système de reconnaissance ou d’interprétation par vision: Le taux d'identification ou la qualité de l'interprétation dépend en effet, étroitement de la qualité de l'analyse et la pertinence des résultats de ces phases. Bien que le sujet ait été étudié en détail dans la littérature, il n'existe pas de méthodes universelles et efficaces de segmentation et de fusion qui permettent une identification précise des classes d'une image réelle lorsque celle-ci est composée à la fois de régions uniformes (faible variation locale de luminance) et texturées. En outre, la majorité de ces méthodes nécessitent des connaissances a priori qui sont en pratique difficilement accessibles. En outre, certaines d’entre elles supposent l'existence de modèles dont les paramètres doivent être estimés. Toutefois, une telle approche paramétrique est non robuste et ses performances sont sévèrement altérées par l’ajustement de l'utilisation de modèles paramétriques. Dans le cadre de cette thèse, un système coopératif et adaptatif de segmentation des images multicomposantes est développé. Ce système est non-paramétrique et utilise le minimum de connaissances a priori. Il permet l’analyse de l'image à plusieurs niveaux hiérarchiques en fonction de la complexité tout en intégrant plusieurs méthodes dans les mécanismes de coopération. Trois approches sont intégrées dans le processus coopératif: L’Algorithme Génétique Hybride, l'Algorithme des C-Moyennes Floues, le Réseau de Kohonen (SOM) et la modélisation géométrique par ’’Non-Uniform Rational B-Spline’’. Pour fusionner les différents résultats issus des méthodes coopératives, l’algorithme génétique est appliqué. Le système est évalué sur des images multicomposantes satellitaires et aériennes. Les différents résultats obtenus montrent la grande efficacité et la précision de ce système
31

Hamila, Nahiène. "Simulation de la mise en forme des renforts composites mono et multi plis". Lyon, INSA, 2007. http://theses.insa-lyon.fr/publication/2007ISAL0092/these.pdf.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
La simulation de la mise en forme des renforts de composites a plusieurs objectifs. Elle permet de déterminer la faisabilité, ou les conditions de cette faisabilité et surtout elle permet de connaître la position des fibres après formage. Ceci est important pour l’identification des caractéristiques mécaniques du composite en service et pour le calcul de la perméabilité après drapage nécessaire pour une analyse correcte de l’injection. Les simulations évitent les coûteuses études expérimentales par essais-erreurs. Le travail présenté dans ce document concerne la première étape de la mise en forme des composites avant injection, à savoir, la mise en forme de renforts tissés. Les apports de ce travail sont les suivants : la définition d’un élément fini à trois nœuds composé de mailles tissées où les directions chaîne et trame sont quelconques par rapport aux cotés de l’élément, la prise en compte de la rigidité de flexion et la mise en place d’une gestion du contact permettant la mise en forme simultanée des multiplis. Enfin, un ensemble de simulations de mise en forme donne des informations quant à l’importance des différentes rigidités d’un renfort fibreux tissé et quant à la possibilité de les négliger ou non
The simulation of the forming process of composite reinforcements has several objectives. It allows to determine feasibility or the conditions of this feasibility and above all it allows to know the positions of the fibers after forming. This is important to determine the mechanical characteristics of the composite in service and to calculate the permeability after draping necessary for a correct analysis of the injection moulding process. Simulations avoid the expensive experimental studies by test-errors. The work presented in this document relates to the first point: forming process of woven reinforcements. The contributions of this work are as follow: definition of a three node element with arbitrary directions of the yarns with regard to the element sides, consideration of the bending stiffness, and implementation of a contact management allowing simultaneous multiplis forming process. Finally, a set of simulations of forming processes emphasizes the importance of the different stiffnesses of woven reinforcements and the possibility of neglecting some of them
32

Hamila, Nahiène Boisse Philippe Brunet Michel. "Simulation de la mise en forme des renforts composites mono et multi plis". Villeurbanne : Doc'INSA, 2008. http://docinsa.insa-lyon.fr/these/pont.php?id=hamila.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
33

Métivier, Jean-Philippe. "Relaxation de contraintes globales : mise en œuvre et application". Caen, 2010. http://www.theses.fr/2010CAEN2012.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Dans le cadre de la Programmation par Contraintes, les contraintes globales ont amené une évolution majeure tant du point de vue modélisation (en synthétisant des ensembles de contraintes) que du point de vue résolution (grâce à des techniques de filtrage héritées d'autres domaines, comme la Recherche Opérationnelle ou l'Intelligence Artificielle). Par ailleurs, beaucoup de problèmes réels sont sur-contraints (ils ne possèdent pas de solution). Dans ce cas, il est nécessaire de relaxer certaines contraintes. De nombreuses études ont été menées pour traiter le cas des contraintes unaires et binaires, mais très peu pour le cas des contraintes globales. Dans cette thèse, nous étudions la relaxation des contraintes globales dans un cadre permettant l'expression de préférences. Pour plusieurs contraintes globales parmi les plus utilisées (c'est-à-dire AllDifferent, Gcc et Regular), nous proposons différentes sémantiques de violation ainsi que des algorithmes permettant de tester l'existence d'une solution et d'éliminer les valeurs incohérentes (filtrage). Les résultats de cette thèse ont été appliqués avec succès à des problèmes de création d'emplois du temps pour des infirmières, qui sont des problèmes sur-contraints difficiles à modéliser et surtout à résoudre
In Constraint Programming, global constraints have led to major changes in terms of modeling (synthesizing sets of constraints) and solving (using filtering techniques inherited from other areas such as Operational Research or Artificial Intelligence). Moreover, many real life problems are over-constrained (they have no solution). In this case, it is necessary to soften some constraints. Many studies have been conducted on unary and binary constraints, but very few on global constraints. In this thesis, we study global constraint softening with preferences. We propose different semantics of violation for several global constraints (i. E. AllDifferent, Gcc and Regular). For each softening semantics, we propose algorithms to check consistency and to remove inconsistent values (filtering). The results of this thesis have been successfully applied to Nurse Rostering Problems (NRPs) that are generally over-constrained and very difficult to solve
34

Danoy, Grégoire. "Uneapproche multi-agent pour les algorithmes génétiques coévolutionnaires hybrides et dynamiques : modèle d'organisation multi-agent et mise en oeuvre sur des problèmes métiers". Saint-Etienne, EMSE, 2008. http://tel.archives-ouvertes.fr/docs/00/78/56/95/PDF/2008_these_G_Danoy.pdf.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Nous défendons la thèse selon laquelle la modélisation des Algorithmes Génétiques Coévolutionnaires (AGCs) sous forme de systèmes multi-agent organisationnels répond au manque d’expressivité en termes de structure, d’interactions et d’adaptation de ces algorithmes dans les modèles et plateformes existants. Dans cette optique nous introduisons MAS4EVO, Multi-Agent Systems for EVolutionary Optimization, un nouveau modèle agent (re-)organisationnel basé sur Moise+. MAS4EVO est implémenté dans DAFO (Distributed Agent Framework for Optimization), un framework multi-agent organisationnel permettant l’utilisation, la manipulation et la distribution d’AGCs existants et nouvellement créés (hybride et dynamique) pour l’optimisation de problèmes difficiles. Les expérimentations de ces AGCs ont été conduites sur deux problèmes d’optimisation métier, le premier étant un problème de gestion de stock et le second étant un problème de contrôle de topologie dans les réseaux ad hoc sans fil
In this dissertation we assert that modeling Coevolutionary Genetic Algorithms (CGAs) as organizational multi-agent systems overcomes the lack of explicitness at the level of the algorithms structure, interactions and adaptation to existing models and platforms. We therefore introduce MAS4EVO, Multi-Agent Systems for EVolutionary Optimization, a new agent (re-)organizational model based on Moise+ and dedicated to evolutionary optimization. This model was used to describe existing CGAs as well as to build two new variants, hybrid and dynamic, of a competitive CGA. MAS4EVO is implemented in DAFO (Distributed Agent Framework for Optimization) which permits the use, the manipulation and the distribution of these CGAs, on hard optimization problems. The CGAs experimentations were conducted on two business problems, the first one being an inventory management problem and the second one being a new topology control problem in wireless ad hoc networks
35

Constantin, Camelia. "Classement de Services et de Données par leur Utilsation". Phd thesis, Université Pierre et Marie Curie - Paris VI, 2007. http://tel.archives-ouvertes.fr/tel-00809638.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
L'émergence des systèmes pair-à-pair et la possibilité de réaliser des calculs et d'échanger des données par des services web conduit à des systèmes d'intégration de données à large échelle où l'évaluation de requêtes et d'autres traitements complexes sont réalisés par composition de services. Un problème important dans ce type de systèmes est l'absence de connaissances globales. Il est difficile par exemple de choisir le meilleur pair pour le routage des requêtes, le meilleur service lors de la composition de services ou de décider parmi les données locales à un pair celles à rafraîchir, à mettre en cache, etc. La notion de choix implique celle de classement. Bien qu'il soit possible de comparer et classer des entités d'après leur contenu ou d'autres métadonnées associées, ces techniques sont généralement basées sur des descriptions homogènes et sémantiquement riches. Une alternative intéressante dans le contexte d'un système à large échelle est le classement basé sur les liens qui exploite les relations entre les différentes entités et permet de faire des choix fondés sur des informations globales. Cette thèse présente un nouveau modèle générique de classement de services fondé sur leurs liens de collaboration. Nous définissons une importance globale de service en exploitant des connaissances spécifiques sur sa contribution aux autres services à travers les appels reçus et les données échangées. L'importance peut être calculée efficacement par un algorithme asynchrone sans génération de messages supplémentaires. La notion de contribution est abstraite et nous avons étudié son instanciation dans le cadre de trois applications: (i) le classement de services basé sur les appels où la contribution reflète la sémantique des services ainsi que leur utilisation avec le temps; (ii) le classement de services par l'utilisation des données où la contribution des services est fondée sur l'utilisation de leurs données pendant l'évaluation des requêtes dans un entrepôt distribué; (iii) la définition des stratégies de cache distribuées qui sont basées sur la contribution d'une mise en cache des données à réduire la charge du système.
36

Agosto, Franco Layda J. "Optimisation d'un réseau social d'échange d'information par recommendation de mise en relation". Chambéry, 2005. http://www.theses.fr/2005CHAMS051.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Nous avons observé que sur le Web les internautes ont des besoins changeants d'information. Grâce aux théories des analyses sociales et grâce aux expériences de systèmes de recommandation existants, nous savons que la plupart du temps, ces besoins informationnels sont généralement satisfaits par le fait de " demander à un copain ", c'est à dire, à une connaissance ou à un référent sur le sujet d'intérêt. Par ailleurs, nous avons fait le constat, comme d'autres avant nous, que dans des systèmes d'échanges d'information (e. X. Les groupes d'intérêt), seule une minorité de producteurs d'information est très active, alors qu'une majorité de consommateurs est silencieuse. Pouvons-nous vraiment modifier cette forte tendance? Tenter de répondre à cette question a été au cœur de notre recherche. Pour arriver à répondre positivement, nous avons imaginé la possibilité d'influencer la motivation des personnes à échanger des informations en construisant des mécanismes de régulation dédiés qui intègrent une dynamique d'échanges d'information, de gestion d'information personnelle (favoris) et de conscience sociale. Nous avons donc proposé et mis en œuvre des algorithmes de recommandation utilisant la structure de la topologie du réseau de relation de personnes formée selon leurs échanges et selon les informations qu'elles gèrent. Nous avons développé notre système SoMeONe sous forme d'un service Web. L'apport le plus important de notre approche est, semble t'il, notre idée de recommander des contacts plutôt que de l'information. Pour cela nous nous sommes fortement intéressés à valider l'efficacité de flux d'information dans le réseau social proposé à travers la construction de mesures de qualité de la topologie du réseau. Nous avons donc établi une série de postulats, de principes et d'hypothèses à valider dans notre cadre théorique. Nos hypothèses tiennent compte des objectifs des utilisateurs (obtenir de l'information) et pour cela nous avons intégré des critères de qualité à optimiser pour tenir compte également des objectifs du système (optimiser la structure d'un réseau social). Le moyen pour les atteindre a été d'utiliser des indicateurs sociaux. Ils constituent nos algorithmes que nous nommons SocialRank
Today, the World Wide Web is getting essential while surfing for information. Surfers have different information needs. Thanks to results from social network analysis and many other experiences observed from existing recommender systems, we have concluded that a tendency is to prefer information having certain approval : "asking to a friend" means to point out the person having a good level of knowledge about the information needed. As others before us, we have also verified that in many information exchange systems (as mailing groups) only few people produce actively information but a lot of them take it. Can we really modify this strong tendency? Try to answer to this question is the principal objective of our work. To do it in a positive way, we have imagined a way to influence user's motivation to exchange information. For that, we use regulation mechanisms that are intended to promote a dynamic information exchange, to allow users to control their personal information (thanks to bookmarks) and to exhibit a social awareness. This is why we have proposed some recommender algorithms. They exploit the network topology formed of relations between persons exchanging information and the information that they handle. Our approach is then supported by a collaborative web system named SoMeONe (Social Media using Opinions through a trust Network). We think that the most important contribution is our idea of recommending contacts instead of information. For that, we want to validate the efficiency of information flow in the social exchange network. We have then proposed some postulates, principles and hypothesis to validate our approach. The hypothesis take in count the users' objectives (information needed) , and for that some quality criterias have been developed in order to also validate the system's objectives (optimize the social network structure). To raise those objectives we have introduced some social indicators (which are our algorithms) that we named SocialRank
37

Duvinage, Isabelle. "Création et mise en cohérence de modèles structuraux à partir d'horizons extraits de données sismiques tridimensionnelles". Vandoeuvre-les-Nancy, INPL, 2000. http://www.theses.fr/2000INPL049N.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Les travaux présentés dans ce mémoire ont pour but de développer des outils informatiques qui permettent d'assister le géologue dans la création d'un modèle structural à partir d'un ensemble d'horizons extraits de données sismiques tridimensionnelles. Un ensemble d'algorithmes est proposé pour permettre de passer progressivement d'un ensemble d'horizons représentés par des points à un ensemble de surfaces correctement connectées représentant les horizons et les failles qui les recoupent. La méthode proposée est décomposée en trois parties: • La première partie concerne l'extraction des bords externes et internes des horizons. Les bords externes représentent la limite du domaine d'étude; les bords internes sont les bords recoupés et décalés par les failles. Ces bords seront représentés par des courbes polygonales. • A partir de ces lignes polygonales, la seconde partie permet de définir le squelette du modèle structural; ce squelette contient l'information nécessaire non seulement à la construction des surfaces représentant les horizons et les failles, mais aussi à la définition des contacts horizon-faille, horizon-frontière, faille-faille et faille-frontière. • Finalement, la troisième partie rassemble les applications du squelette du modèle structural; parmi lesquelles, la création de cartes de superpositions des couches sur les failles, la création de cartes de déplacement sur les failles et la création des modèles volumiques faillés de différents types. Les algorithmes proposés tentent de tenir compte des différents cas de figure qui peuvent être rencontrés. Après chaque étape, le résultat automatique p eut être édité par le géologue.
38

Bicking, Frédérique. "Définition et mise au point d'un nouvel algorithme de type génétique : application à la conduite d'un bioprocédé semi-continu". Vandoeuvre-les-Nancy, INPL, 1994. http://www.theses.fr/1994INPL061N.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
L’objectif de ce travail est double: (i) définir et mettre au point une nouvelle technique d'optimisation issue de l'informatique avancée, (ii) utiliser cet outil d'optimisation pour la conduite d'un procédé non-linéaire: la production de levures de boulangerie en réacteur semi-continu. La première partie de ce mémoire décrit le développement de deux nouveaux algorithmes d'optimisation. Ils s'inspirent conjointement des algorithmes génétiques et des stratégies d'évolution, de par l'utilisation de principes de la sélection naturelle. Le premier est basé sur un modèle haploïde et le deuxième utilise des concepts génétiques plus évolués en modélisant les organismes diploïdes. Leurs performances sont évaluées et comparées sur la recherche d'optimums de fonctions mathématiques et sur l'identification paramétrique d'un modèle hydrodynamique d'un bioréacteur. La seconde partie traite de l'application de cette méthode d'optimisation pour assurer le pilotage du procédé semi-continu. Le développement, en simulation, d'une technique de conduite a été réalisé en tenant compte de nombreuses contraintes pratiques et de perturbations pouvant intervenir. La mise en œuvre expérimentale de cette technique de conduite est la dernière phase du travail. Pour ce faire, des interfaces logicielles et matérielles ont été développées pour permettre le couplage entre les différents ordinateurs nécessaires au calcul, à la gestion des mesures de certaines variables d'état et aux actions sur le fermenteur et son instrumentation associée. Parallèlement au développement de la technique de conduite, l'algorithme développé a été également utilisé dans le cas de la détermination du profil optimal d'alimentation qui maximise la productivité. Le profil expérimental peut ainsi être comparé au profil défini comme optimal. Ces différentes applications montrent l'intérêt de la méthodologie développée en vue d'applications à divers problèmes plus ou moins complexes
39

Cousin, Jean-Gabriel. "Methodologies de conception de coeurs de processeurs specifiques (asip) : mise en oeuvre sous contraintes, estimation de la consommation". Rennes 1, 1999. http://www.theses.fr/1999REN10085.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
L'evolution rapide des applications de telecommunications, du multimedia et de l'electronique grand public offre la possibilite de realiser un systeme complet sur une meme puce. L'integration a un niveau d'abstraction eleve de ces applications sur des curs de processeurs flexibles, permet de reduire le temps de conception et le cout du produit. Nous etudions ici l'asip, une solution materielle heterogene, specifique, performante et flexible, de surface et de consommation reduites. Nous definissons des methodologies de conception de curs d'asip pour un environnement de synthese de haut niveau. Ces methodologies s'appuient sur des algorithmes d'ordonnancement par liste et sont nanties d'estimateurs de consommation assistant l'integration d'algorithmes en vue d'une optimisation. Nous ciblons et experimentons sur les applications de traitement du signal et d'images orientees flot de donnees, contraintes en temps ou restreintes en surface. Une premiere methodologie synthetise continument les algorithmes contraints en temps choisis pour caracteriser l'application consideree, et concoit le cur d'asip correspondant dont on deduit le jeu d'instructions ; la seconde, similaire a la premiere, permet de surcroit d'agir sur l'algorithmie ou sur l'architecture en cours de conception, en reaction aux informations delivrees par nos estimateurs. La troisieme nous confere la possibilite de concevoir une architecture vlsi a ressources contraintes. Par cette technique et par la flexibilite de l'architecture, nous prospectons sur l'implementation d'algorithmes par le biais de notre environnement de synthese materielle. Notre presentation des techniques avancees d'estimation et d'optimisation de la consommation, nous permet de degager les modeles caracterisant les composants de nos asip. Nous presentons trois estimateurs de la consommation : le premier agit lors de l'execution des modules usuels de la synthese, le second estime apres synthese complete de l'algorithme cible et le troisieme s'appuie sur le jeu d'instructions du cur d'asip synthetise. Pour assurer le suivi de nos recherches, nous effectuons une analyse critique, tant sur le developpement de nos outils elabores et sur la conduite de nos methodologies, que sur les resultats de nos experimentations
40

Benay, Stephan. "Mise au point des outils analytiques et formels utilisés dans la recherche préclinique en oncologie". Thesis, Aix-Marseille, 2014. http://www.theses.fr/2014AIXM5501.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Afin d'analyser les données in vitro de l'effet de l'erlotinib sur la croissance des cellules A431 suivie par impédance-métrie, nous avons développé un modèle pharmacocinétique - pharmacodynamique non linéaire décrivant simultanément la diminution de la concentration d'erlotinib et son effet sur la croissance cellulaire au cours du temps. La non-linéarité du modèle imposant le recours à des méthodes itératives pour l'estimation des paramètres, plusieurs étapes de la procédure d'identification du modèle ont été étudiées et des solutions proposées, avec des exemples d'application à des molécules utilisées en oncologie:Choix du critère d'optimisation à employer - supériorité de la relation fonctionnelle de la moyenne géométrique pour l'identification de modèles non linéaires. Application données réelles: courbe de calibration d'une expérience de dosage ELISA du bevacizumab. Choix de l'algorithme d'optimisation le plus approprié au problème d'identification du processus pharmacocinétique. Les algorithmes dérivatifs sont les plus performants. Application données réelles: estimation simultanée des paramètres du modèle pharmacocinétique du 5-fluorouracile et de son métabolite principal.Transformation de la forme différentielle initiale du modèle en temps continu vers un modèle récursif en temps discret. Par ce moyen le modèle devient linéaire en ses paramètres, ce qui permet d'estimer directement les paramètres sans utiliser d'algorithme d'optimisation. Il devient également possible de suivre les variations des paramètres au cours du temps. Application données réelles: pharmacocinétique de la fotemustine, de la mitoxantrone et du 5-fluorouracile
A nonlinear pharmacokinetic-pharmacodynamic model has been devised do simultaneously describe the loss of erlotinib and its effect on the cell growth over time, in order to analyze impedance-based data of erlotinib effect on A431 cells growth in vitro over time. The model non-linearity requiring the use of iterative methods for parameter estimation, several steps of the model identification were studied, and solutions proposed, with application examples to cancer drugs :Choice of the optimization criterion - superiotity of the geometric mean functionnal relationship for non-linear model identification. Real data application : calibration curve of a bevacizumab ELISA quantification experiment.Choice of the most appropriate algorithm for the pharmacokinetic process identification problem. The derivative algorithms perform better. Real data application : simultaneous identification of the 5-fluorouracil and of its main metabolite pharmacokinetic system.Transform of the differential initial continuous-time model in a recursive discrete time model. The transformed model becomes linear with respect to its parameters, allowing straightforward parameter estimation without using any optimization algorithm. It is then also possible to track the parameter variations over time. Real data application : pharmacokinetic model parameter estimation of fotemustine, mitoxantrone and 5-fluorouracil
41

Brown, Naïma. "Vérification et mise en œuvre distribuée des programmes unity". Nancy 1, 1994. http://www.theses.fr/1994NAN10384.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
L'affinement successif de programmes parallèles à partir de spécifications formelles permet de s'assurer de la correction du programme obtenu par rapport a la specification initiale, puisque la transformation est fondée sur la préservation de propriétés telles que celles d'invariance et celles de fatalité. Cependant, les programmes obtenus sont écrits dans une notation abstraite éloignée des langages de programmation parallèles classiques et il convient de développer des techniques de transformation de programmes (ensemble d'actions) en des programmes écrits dans des langages de programmation parallèles (linda, occam). Bien entendu, cela conduit à analyser les techniques possibles de parallélisation de systèmes d'actions ou de distribution de systèmes d'actions. Notre travail de thèse s'appuie sur le formalisme unity de Chandy et Misra pour lequel nous avons construit un outil d'aide à la preuve dans l'outil b et nous avons examiné plusieurs types de transformations de programmes unity en d'autres langages ainsi que des stratégies de répartition. Nous proposons un langage intermédiaire que nous dénommons UCL (unity communication language) qui facilite l'implantation d'unity sur une architecture parallèle, et qui assure la correction formelle de cette implantation vis-à-vis de la spécification initiale. Le langage UCL est ensuite utilisé comme nouveau point de départ de la transformation et permet de produire soit un programme Clinda, soit un programme Occam. Cette approche favorise la réutilisation de cette première étape de transformation avant de cibler une architecture particulière
42

Blondel, Jean-Louis. "Étude et mise en oeuvre d'une méthode de décomposition additive pour le calcul des valeurs propres d'une matrice". Caen, 1988. http://www.theses.fr/1988CAEN2035.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
On propose un nouvel algorithme basé sur une décomposition additive pour le calcul des valeurs propres d'une matrice. On établit une condition suffisante de convergence. L'utilisation de la méthode Cestac permet d'obtenir facilement la précision sur les valeurs propres obtenues. On donne de nombreux exemples numériques illustrant l'efficacité de l'algorithme.
43

Robin, Frédéric. "Etude d'architectures VLSI numériques parallèles et asynchrones pour la mise en oeuvre de nouveaux algorithmes d'analyse et rendu d'images". Phd thesis, Ecole nationale supérieure des telecommunications - ENST, 1997. http://tel.archives-ouvertes.fr/tel-00465691.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Le contexte des applications de communication visuelle évolue vers l'introduction de fonctionnalités qui dépassent la simple compression d'images: accès universel, interactivité basée-contenu, intégration de contenus hybrides synthétiques-naturels. Une brève introduction au codage avancé d'images permet d'entrevoir l'évolution de la puissance de calcul et de la généricité requises pour l'implémentation de ces systèmes de "deuxième génération". Une synthèse sur l'évolution des circuits VLSI dédiés à l'analyse, la compression et le rendu d'images permet une réflexion sur les limitations architecturales des "processeurs multimédia". Cette thèse propose de combiner le parallélisme massif et l'asynchronisme à grain fin pour apporter de nouvelles perspectives de conception conjointe d'algorithmes et d'architectures VLSI numériques. Une introduction aux différentes notions d'asynchronisme, aux niveaux langage, algorithme, architecture, circuit VLSI, permet de mieux cerner leur sens et les potentiels qu'elles offrent. L'application d'un asynchronisme fonctionnel au filtrage morphologique d'images a abouti à la réalisation d'un réseau VLSI cellulaire asynchrone spécifique comprenant 800.000 transistors en technologie CMOS 0.5µ. La combinaison du parallélisme et de l'asynchronisme est finalement généralisée à travers la définition d'une architecture de coprocesseur programmable pour l'analyse-rendu d'images. L'évaluation de plusieurs primitives algorithmiques originales, basées sur un contrôle mixte SPMD-cellulaire-associatif-flot de données, illustre l'utilisation conjointe de l'asynchronisme à différents niveaux. Ce travail démontre que le relâchement des contraintes de synchronisation et de séquencement, de la spécification à la réalisation matérielle, favorise l'exploitation du parallélisme inhérent aux algorithmes et des potentiels des technologies VLSI.
44

Michel, Dominique. "Contribution à la conception, la mise en oeuvre et l'amélioration des algorithmes de calcul des intersections de carreaux NURBS". Metz, 1992. http://docnum.univ-lorraine.fr/public/UPV-M/Theses/1992/Michel.Dominique.SMZ9211.pdf.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
La modélisation de la forme des solides est un des aspects fondamentaux de la CFAO. L'enveloppe d'un solide est souvent définie par assemblage de plusieurs surfaces (modélisation géométrique par les limites). De nombreux modèles mathématiques de surface, adaptés à la CFAO ont été élaborés. Ce mémoire traite des surfaces NURBS (non uniform rational b-spline) ; elles généralisent les carreaux de Bézier et permettent la représentation exacte des quadriques. La création d'objets par assemblage de faces implique de pouvoir retailler celles-ci, et par conséquent, de savoir calculer l'intersection de plusieurs surfaces. Dans cet exposé, sont étudiées les différentes approches du problème intersection surface paramétrique-surface paramétrique. Les méthodes classiques sont rappelées. Il s'agit de la méthode dichotomie/subdivision récursive/intersection de facettes planes bien connue qui ramène le problème général à celui de l'intersection facette plane-facette plane, de la méthode de Farouki qui traite le cas intersection surface cartésienne-surface paramétrique et de l'algorithme de suivi de courbe qui consiste à calculer de proche en proche des points le long de la courbe d'intersection. Les trois approches sont intéressantes et ne s'appliquent pas aux mêmes conditions du problème. Des solutions qui tentent de combiner les différents avantages sont développées. Un algorithme original de simplification qui généralise la première méthode est conçu ; il associe subdivisions récursives et diminution de degré. La théorie des résolvants permet une résolution complète du problème intersection courbe quadratique-carreau biquadratique ; son application au calcul des courbes d'intersection est très efficace. Enfin un algorithme exploitant le principe du suivi de courbe est réalisé, dans lequel la courbe construite est parcourue par l'abscisse curviligne. Ceci permet en chaque point d'obtenir des informations géométriques qui précisent le comportement de la courbe. Elles contribuent à améliorer les performances de l'algorithme. L'association de ces trois opérations constitue un algorithme général. Les difficultés majeures de la construction des courbes d'intersection, la détection des courbes fermées et le traitement des points singuliers sont analysées et partiellement résolues dans certains cas
Solid objects shape modelling is a basic sight of CAD. The shape of a solid is usually defined by assembling several surfaces (Boundary representation). Many mathematic surface models, suitables for CAD/CAM have been built. This paper deals with NURBS (Non Uniform Rational B-spline) surfaces ; they generalize the Bézier Patches and provide an exact representation of quadric surfaces. Building objects by assembling several patches leads the solid modeler to be able to trim the surface patches and, hence, to be able to compute intersections between surfaces. In this report we study the different ways to solve the problem parametric surface-parametric surface intersection. The standard methods are recalled. We mean : the well known divide and conquer method which reduces the general problem to the case of flat surfaces intersection ; Farouki's method which deals with the case of parametric surface implicit surface intersection ; the tracing algorithm which computes a sequence of close-set points along the intersection curve. The three approaches are interesting, they suit to differents sights of the same problem. Some solutions which try to combine the different advantages, are developped. A new simplifying NURBS patches algorithm which generalizes the first standard method is designed ; its associates recursive subdivision and degree decrease. The resultant's theory provides a complete solution of the problem degree 2 rational curve-bicadric rational patche intersection. It can be efficiently applied to the computation of intersection curves. At last an algorithm based on the tracing curves scheme is implemented. In this algorithm, the being built curve is parameterized by the arc length. This allows one to get, for each point, geometric informations which are used to accurate the curve behaviour. They contribute to improve the performance of the algorithm. Uniting these three operations leads to a general algorithm. The main difficulties of builiding intersection curves, detection of closed curves and dealing with singularities are discussed and partially solved in some cases
45

Robin, Frédéric. "Etude d'architectures vlsi numériques parallèles et asynchrones pour la mise en œuvre de nouveaux algorithmes d'analyse et rendu d'images". Paris, ENST, 1997. http://www.theses.fr/1997ENST0021.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Le contexte des applications de communication visuelle évolue vers l'introduction de fonctionnalités qui dépassent la simple compression d'images : accès universel, interactivité basée-contenu, intégration de contenus hybrides synthétiques-naturels. Une brève introduction au codage avance d'images permet d'entrevoir l'évolution de la puissance de calcul et de la généricité requises pour l'implémentation de ces systèmes de deuxième génération. Une synthèse sur l'évolution des circuits vlsi dédiés à l'analyse, la compression et le rendu d'images permet une réflexion sur les limitations architecturales des processeurs multimédia. Cette thèse propose de combiner le parallélisme massif et l'asynchronisme à grain fin pour apporter de nouvelles perspectives de conception conjointe d'algorithmes et d'architectures vlsi numériques. Une introduction aux différentes notions d'asynchronisme, aux niveaux langage, algorithme, architecture, circuit vlsi, permet de mieux cerner leur sens et les potentiels qu'elles offrent. L'application d'un asynchronisme fonctionnel au filtrage morphologique d'images a abouti à la réalisation d'un réseau vlsi cellulaire asynchrone spécifique comprenant 800. 000 transistors en technologie cmos 0. 5. La combinaison du parallélisme et de l'asynchronisme est finalement généralisée à travers la définition d'une architecture de coprocesseur programmable pour l'analyse-rendu d'images. L'évaluation de plusieurs primitives algorithmiques originales, basées sur un contrôle mixte spmd-cellulaire-associatif-flot de données, illustre l'utilisation conjointe de l'asynchronisme a différents niveaux. Ce travail démontre que le relâchement des contraintes de synchronisation et de séquencement, de la spécification a la réalisation matérielle, favorise l'exploitation du parallélisme inhérent aux algorithmes et des potentiels des technologies vlsi.
46

Robin, Frédéric. "Étude d'architectures VLSI numériques parallèles et asynchrones pour la mise en oeuvre de nouveaux algorithmes d'analyse et rendu d'images /". Paris : École nationale supérieure des télécommunications, 1997. http://catalogue.bnf.fr/ark:/12148/cb367038459.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
47

Michel, Dominique Gardan Yvon. "CONTRIBUTION A LA CONCEPTION, LA MISE EN UVRE ET L'AMELIORATION DES ALGORITHMES DE CALCUL DES INTERSECTIONS DE CARREAUX NURBS". [S.l.] : [s.n.], 1992. ftp://ftp.scd.univ-metz.fr/pub/Theses/1992/Michel.Dominique.SMZ9211.pdf.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
48

Abouzahir, Mohamed. "Algorithmes SLAM : Vers une implémentation embarquée". Thesis, Université Paris-Saclay (ComUE), 2017. http://www.theses.fr/2017SACLS058/document.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
La navigation autonome est un axe de recherche principal dans le domaine de la robotique mobile. Dans ce contexte, le robot doit disposer des algorithmes qui lui permettent d’évoluer de manière autonome dans des environnements complexes et inconnus. Les algorithmes de SLAM permettent à un robot de cartographier son environnement tout en se localisant dans l’espace. Les algorithmes SLAM sont de plus en plus performants, mais aucune implémentation matérielle ou architecturale complète n’a eu. Une telle implantation d’architecture doit prendre en considération la consommation d’énergie, l’embarquabilité et la puissance de calcul. Ce travail scientifique vise à évaluer des systèmes embarqués impliquant de la localisation ou reconstruction de scène. La méthodologie adoptera une approche A3 (Adéquation Algorithme Architecture) pour améliorer l’efficacité de l’implantation des algorithmes plus particulièrement pour des systèmes à fortes contraintes. Le système SLAM embarqué doit disposer d’une architecture électronique et logicielle permettant d’assurer la production d’information pertinentes à partir de données capteurs, tout en assurant la localisation de l’embarquant dans son environnement. L’objectif est donc de définir, pour un algorithme choisi, un modèle d’architecture répondant aux contraintes de l’embarqué. Les premiers travaux de cette thèse ont consisté à explorer les différentes approches algorithmiques permettant la résolution du problème de SLAM. Une étude plus approfondie de ces algorithmes est réalisée. Ceci nous a permet d’évaluer quatre algorithmes de différente nature : FastSLAM2.0, ORB SLAM, RatSLAM et le SLAM linéaire. Ces algorithmes ont été ensuite évalués sur plusieurs architectures pour l’embarqué afin d’étudier leur portabilité sur des systèmes de faible consommation énergétique et de ressources limitées. La comparaison prend en compte les temps d’exécutions et la consistance des résultats. Après avoir analysé profondément les évaluations temporelles de chaque algorithme, le FastSLAM2.0 est finalement choisi, pour un compromis temps d’exécution-consistance de résultat de localisation, comme candidat pour une étude plus approfondie sur une architecture hétérogène embarquée. La second partie de cette thèse est consacré à l’étude d’un système embarqué implémentant le FastSLAM2.0 monoculaire dédié aux environnements larges. Une réécriture algorithmique du FastSLAM2.0 a été nécessaire afin de l’adapter au mieux aux contraintes imposées par les environnements de grande échelle. Dans une démarche A3, le FastSLAM2.0 a été implanté sur une architecture hétérogène CPU-GPU. Grâce à un partitionnement efficace, un facteur d’accélération global de l’ordre de 22 a été obtenu sur une architecture récente dédiée pour l’embarqué. La nature du traitement de l’algorithme FastSLAM2.0 pouvait bénéficier d’une architecture fortement parallèle. Une deuxième instance matérielle basée sur une architecture programmable FPGA est proposée. L’implantation a été réalisée en utilisant des outils de synthèse de haut-niveau afin de réduire le temps de développement. Une comparaison des résultats d’implantation sur cette architecture matérielle par rapport à des architectures à base de GPU a été réalisée. Les gains obtenus sont conséquent, même par rapport aux GPU haut-de-gamme avec un grand nombre de cœurs. Le système résultant peut cartographier des environnements larges tout en garantissant le compromis entre la consistance des résultats de localisation et le temps réel. L’utilisation de plusieurs calculateurs implique d’utiliser des moyens d’échanges de données entre ces derniers. Cela passe par des couplages forts. Ces travaux de thèse ont permis de mettre en avant l’intérêt des architectures hétérogènes parallèles pour le portage des algorithmes SLAM. Les architectures hétérogènes à base de FPGA peuvent particulièrement devenir des candidats potentiels pour porter des algorithmes complexes traitant des données massives
Autonomous navigation is a main axis of research in the field of mobile robotics. In this context, the robot must have an algorithm that allow the robot to move autonomously in a complex and unfamiliar environments. Mapping in advance by a human operator is a tedious and time consuming task. On the other hand, it is not always reliable, especially when the structure of the environment changes. SLAM algorithms allow a robot to map its environment while localizing it in the space.SLAM algorithms are becoming more efficient, but there is no full hardware or architectural implementation that has taken place . Such implantation of architecture must take into account the energy consumption, the embeddability and computing power. This scientific work aims to evaluate the embedded systems implementing locatization and scene reconstruction (SLAM). The methodology will adopt an approach AAM ( Algorithm Architecture Matching) to improve the efficiency of the implementation of algorithms especially for systems with high constaints. SLAM embedded system must have an electronic and software architecture to ensure the production of relevant data from sensor information, while ensuring the localization of the robot in its environment. Therefore, the objective is to define, for a chosen algorithm, an architecture model that meets the constraints of embedded systems. The first work of this thesis was to explore the different algorithmic approaches for solving the SLAM problem. Further study of these algorithms is performed. This allows us to evaluate four different kinds of algorithms: FastSLAM2.0, ORB SLAM, SLAM RatSLAM and linear. These algorithms were then evaluated on multiple architectures for embedded systems to study their portability on energy low consumption systems and limited resources. The comparison takes into account the time of execution and consistency of results. After having deeply analyzed the temporal evaluations for each algorithm, the FastSLAM2.0 was finally chosen for its compromise performance-consistency of localization result and execution time, as a candidate for further study on an embedded heterogeneous architecture. The second part of this thesis is devoted to the study of an embedded implementing of the monocular FastSLAM2.0 which is dedicated to large scale environments. An algorithmic modification of the FastSLAM2.0 was necessary in order to better adapt it to the constraints imposed by the largescale environments. The resulting system is designed around a parallel multi-core architecture. Using an algorithm architecture matching approach, the FastSLAM2.0 was implemeted on a heterogeneous CPU-GPU architecture. Uisng an effective algorithme partitioning, an overall acceleration factor o about 22 was obtained on a recent dedicated architecture for embedded systems. The nature of the execution of FastSLAM2.0 algorithm could benefit from a highly parallel architecture. A second instance hardware based on programmable FPGA architecture is proposed. The implantation was performed using high-level synthesis tools to reduce development time. A comparison of the results of implementation on the hardware architecture compared to GPU-based architectures was realized. The gains obtained are promising, even compared to a high-end GPU that currently have a large number of cores. The resulting system can map a large environments while maintainingthe balance between the consistency of the localization results and real time performance. Using multiple calculators involves the use of a means of data exchange between them. This requires strong coupling (communication bus and shared memory). This thesis work has put forward the interests of parallel heterogeneous architectures (multicore, GPU) for embedding the SLAM algorithms. The FPGA-based heterogeneous architectures can particularly become potential candidatesto bring complex algorithms dealing with massive data
49

Chabanis, Manuel. "Estimation des variations de la pression motrice respiratoire à partir des mesures du débit ventilatoire : mise au point et validation d'un algorithme". Université Joseph Fourier (Grenoble), 1992. http://www.theses.fr/1992GRE19003.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
50

Bergogne, Laurent. "Quelques algorithmes parallèles sur des "séquences de" pour différents modèles de calcul parallèle". Amiens, 1999. http://www.theses.fr/1999AMIE0130.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri

Vai alla bibliografia