Um die anderen Arten von Veröffentlichungen zu diesem Thema anzuzeigen, folgen Sie diesem Link: Optimisation de protocoles expérimentaux.

Dissertationen zum Thema „Optimisation de protocoles expérimentaux“

Geben Sie eine Quelle nach APA, MLA, Chicago, Harvard und anderen Zitierweisen an

Wählen Sie eine Art der Quelle aus:

Machen Sie sich mit Top-50 Dissertationen für die Forschung zum Thema "Optimisation de protocoles expérimentaux" bekannt.

Neben jedem Werk im Literaturverzeichnis ist die Option "Zur Bibliographie hinzufügen" verfügbar. Nutzen Sie sie, wird Ihre bibliographische Angabe des gewählten Werkes nach der nötigen Zitierweise (APA, MLA, Harvard, Chicago, Vancouver usw.) automatisch gestaltet.

Sie können auch den vollen Text der wissenschaftlichen Publikation im PDF-Format herunterladen und eine Online-Annotation der Arbeit lesen, wenn die relevanten Parameter in den Metadaten verfügbar sind.

Sehen Sie die Dissertationen für verschiedene Spezialgebieten durch und erstellen Sie Ihre Bibliographie auf korrekte Weise.

1

Doha, Baccar. „Optimisation des protocoles expérimentaux dans les modèles de population“. Paris 6, 1996. http://www.theses.fr/1996PA066460.

Der volle Inhalt der Quelle
Annotation:
Cette these concerne l'optimisation des protocoles experimentaux dans les modeles de population, c'est-a-dire les modeles comportant dans leur specification une structure probabiliste sur leurs parametres. De tels modeles, comportant des parametres aleatoires, sont tres frequemment rencontres en biologie, cette dimension aleatoire rendant compte de la variabilite biologique. Les protocoles experimentaux recherches satisfont des conditions d'optimalite au sens de l'information qu'ils apportent en vue de l'estimation des parametres (appeles hyperparametres) caracterisant la distribution de probabilite des parametres aleatoires. Ces protocoles experimentaux sont appeles protocoles de population et precisent la facon dont un ensemble d'unites (generalement d'individus) devra etre observe pour que les observations experimentales resultantes permettent la meilleure estimation des hyperparametres. La methodologie proposee generalise la notion de protocole d-optimal. Il s'agit essentiellement d'une generalisation de la theorie des protocoles statistiques optimaux et des algorithmes sequentiels (specialement l'algorithme de fedorov) permettant de generer ces protocoles. Une notion de cout associee a un protocole est introduite. L'algorithme propose inclut une etape de regroupement fondee sur la methode du recuit simule. L'application proposee a titre d'exemple appartient au champ de la pharmacocinetique ; le modele considere est un modele dynamique frequemment rencontre dans les etudes de description des relations entre administration d'un medicament et presence du medicament dans l'organisme. Dans ce contexte, les conditions experimentales portent sur le choix des dates auxquelles sont observees les concentrations medicamenteuses. La methodologie developpee dans ce travail conduit a la definition d'un protocole constitue de plusieurs ensembles de dates optimales ; chacun de ces ensembles specifie les conditions d'observation dans chaque sous-groupe d'individus constituant l'echantillon sur lequel sera estimee la validite interindividuelle. Sont suggerees aussi differentes extensions possibles pour le calcul des protocoles de population exact et sequentiel d-optimaux.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
2

Lasnon, Charline. „Optimisation des protocoles et de la quantification en tomographie par émission de positon pour l'évaluation thérapeutique dans les domaines de la recherche préclinique et clinique“. Caen, 2016. http://www.theses.fr/2016CAEN4083.

Der volle Inhalt der Quelle
Annotation:
Plusieurs sources de variabilité des SUVs ont été étudiées en recherche préclinique. Ainsi, l’utilisation des PDCi améliore les performances diagnostiques et présente un faible impact sur les données quantitatives, sans retentissement sur l’évaluation thérapeutique. D’autre part, bien que l’extravasation du traceur soit un phénomène fréquent, elle n’impacte pas l’évaluation thérapeutique et sa correction systématique ne semble pas nécessaire. Enfin, les différentes reconstructions disponibles (FBP, OSEM et MAP) présentent des performances identiques pour prédire la réponse au traitement et la récidive après traitement. Ce dernier résultat contraste avec ceux obtenus en recherche clinique où la reconstruction PSF améliore les performances diagnostiques et augmente de manière significative les valeurs quantitatives comparativement à la reconstruction OSEM prise comme référence par les recommandations EANM. Les SUVs extraits des reconstructions PSF et OSEM ne sont donc pas comparables avec un impact significatif sur l’évaluation thérapeutique. Ceci rend nécessaire l’utilisation d’une stratégie d’harmonisation. Ce travail a permis de valider une stratégie d’harmonisation visant à reconstruire deux jeux d’images : une reconstruction PSF optimale pour le diagnostic et une reconstruction PSF filtrée optimale pour la quantification. Cette stratégie, depuis reprise par les guidelines EANM et EARL, a été validée pour tout type de tumeur solide. Au-delà des SUVs largement utilisés en pratique clinique courante, cette méthode a également été validée pour l’harmonisation des données d’hétérogénéité métabolique intra-tumorale
Several sources of SUVs variability were studied in preclinical research. The use of iodinated contrast media improves the PET-CT diagnostic performance and has a low impact on quantitative data, and no effect on therapeutic evaluation. Furthermore, although tracer extravasation is quite frequent, it doesn’t impact therapeutic evaluation and a systematic correction does not seem necessary. Finally, the different reconstructions available (FBP, OSEM and MAP) have identical performance with regards treatment response and recurrence after treatment. This last result contrasts with those obtained in clinical research where PSF reconstruction improves the diagnostic performance and significantly increases the quantitative values compared with the OSEM reconstruction used as a reference in the EANM recommendations. SUVs extracts from PSF and OSEM reconstructions are therefore not comparable. This has a significant impact on therapeutic evaluation and emphasizes the need of a harmonization strategy. This work has validated a harmonization strategy based on the use of two sets of images: PSF reconstruction for diagnosis and PSF filtered reconstruction for quantification. This strategy, proposed in the EANM and EARL guidelines, has been validated for any type of solid tumor. Beyond SUVs which are widely used in clinical practice, this method has also been validated for the harmonization of intra-tumoral heterogeneity data
APA, Harvard, Vancouver, ISO und andere Zitierweisen
3

Gross, Viktoriia. „An integrative approach to characterize and predict cell death and escape to beta-lactam antibiotic treatments“. Electronic Thesis or Diss., université Paris-Saclay, 2024. http://www.theses.fr/2024UPASB035.

Der volle Inhalt der Quelle
Annotation:
La résistance aux antibiotique est de plus en plus courante. En particulier, la fraction croissante d'Escherichia coli commensaux et pathogènes exprimant des bêta-lactamases à spectre étendu et/ou des carbapénémases est alarmante. E. coli est une cause majeure d'infections courantes telles que les infections urinaires, qui touchent plus de 150 millions de personnes dans le monde. Il est important de noter que de nombreuses infections récidivent. Il est donc essentiel de comprendre en profondeur la sensibilité des isolats cliniques d'E. coli aux bêta-lactamines pour proposer des traitements efficaces.Les bactéries peuvent échapper aux traitements de différentes manières. Les bactéries résistantes se développent et se divisent normalement en présence d'antibiotiques. Leur caractérisation est facile à l'aide de tests de diagnostic standard. Les bactéries tolérantes se contentent de survivre en présence d'antibiotiques et repoussent lorsque l'antibiotique est retiré ou dégradé. Ce comportement biphasique complique la prédiction des résultats du traitement. La résilience au traitement est notamment observée dans la tolérance collective aux antibiotiques, où les cellules mortes libèrent des bêta-lactamases qui dégradent l'antibiotique dans l'environnement. Les approches standard ne sont pas adaptées pour quantifier et comprendre le rôle de la résistance et/ou de la résilience.Nos principaux objectifs sont de quantifier la dynamique de la mort cellulaire au cours de traitements répétés et de quantifier l'impact des différentes conditions environnementaux sur la mort cellulaire. Tout d'abord, nous avons développé de nouveaux protocoles pour résoudre les problèmes de variabilité dans les mesures de densité optique, et pour effectuer des tests d'unités formant colonies d'une manière efficace. Grâce à ces techniques, nous avons généré un vaste ensemble de données décrivant l'impact de traitements répétés sur différents isolats cliniques. Nous avons calibré un modèle, précédemment développé par l'équipe, de la réponse de la population aux antibiotiques et de l'évolution de l'environnement dans le contexte de tolérance collective aux antibiotiques. Nous avons calibré le modèle sur l'ensemble de données, et nous avons montré que le modèle tient compte de l'évolution temporelle de la biomasse et du nombre de cellules vivantes. En outre, nous avons démontré qu'en utilisant ce modèle, nous pouvons prédire le nombre de cellules vivantes à partir des mesures de la biomasse.Dans ce travail, nous avons mis en évidence l'écart entre l'in vitro et l'in vivo en évaluant l'effet de différentes conditions de croissance sur la survie des cellules. Pour relever ce défi, nous avons étudié la réponse bactérienne dans l'urine humaine et dans le milieu de Mueller-Hinton (milieu utilisé pour les antibiogrammes standard), ainsi que dans un milieu défini avec différentes sources de carbone. Tout d'abord, nous avons observé une meilleure survie dans l'urine par rapport au milieu Mueller-Hinton, mais ce résultat variait en fonction de la souche et de la concentration d'antibiotique. Il est intéressant de noter que les données expérimentales ont montré que la concentration en nutriments n'avait pas d'effet sur le taux de croissance, mais un effet important sur la capacité de charge et la réponse aux antibiotiques. Grâce à l'étalonnage du modèle et à l'analyse des valeurs des paramètres du modèle, nous avons identifié des processus biologiques qui pourraient expliquer les différences entre le comportement des bactéries dans différents milieux
Resistance to first-line antimicrobial drugs is now commonly encountered. In particular, the increasing fraction of commensal and pathogenic Escherichia coli expressing extended-spectrum beta-lactamases and/or carbapenemases is alarming. E. coli is a major cause of common infections such as urinary tract infections, affecting over 150 million people worldwide. Importantly, many infections relapse. Therefore, an in-depth understanding of the susceptibility of E. coli clinical isolates to beta-lactams is essential for proposing effective treatments.Bacteria might escape treatments in many different ways. Resistant bacteria grow and divide normally in the presence of antibiotics. Their characterization is easy using standard diagnostic tests. Resilient bacteria merely survive in the presence of antibiotics and regrow when the antibiotic is removed or degraded. This biphasic behavior complicates the prediction of treatment outcomes. Resilience to treatment is notably observed in collective antibiotic tolerance, where dead cells release beta-lactamases degrading the antibiotic in the environment. Standard approaches are not adapted for quantifying and understanding the role of resistance and/or resilience.Our main objectives are to quantify the dynamics of cell death during repeated treatments and to quantify the impact of different growth conditions on cell death. First, we developed novel protocols to address variability issues in optical density measurements, and to perform colony forming unit assays in an efficient manner. Using these techniques, we generated an extensive dataset describing the impact of repeated treatments on different clinical isolates. We calibrated a previously developed in the team model of population response to antibiotic and evolution of the environment in the context of collective antibiotic tolerance. We calibrated the model to our dataset, and we showed that the model accounts for the temporal evolution of both biomass and live cell counts. Further, we demonstrated that using this model we can predict live cell number from biomass measurements.In addition, in this work we highlighted the in vitro - in vivo gap by assessing the effect of different growth conditions on cell survival. To address this challenge, we studied the bacterial response in human urine and in Mueller-Hinton media (media used for standard antibiotic susceptibility tests), as well as a defined media with different carbon sources. First, we observed better survival in urine compared to Mueller-Hinton media, but this result varied depending on the strain and the antibiotic concentration. Interestingly, the experimental data showed that nutrient concentration had no effect on growth rate, but a strong effect on carrying capacity and antibiotic response. Through model calibration and analysis of identified model parameter values, we identified biological processes that could explain the differences between bacterial behavior in different media
APA, Harvard, Vancouver, ISO und andere Zitierweisen
4

De, Araujo Novaes Magdala. „Automatisation de protocoles expérimentaux : application au séquencage d'ADN“. Aix-Marseille 2, 1993. http://www.theses.fr/1993AIX22037.

Der volle Inhalt der Quelle
Annotation:
Le travail presente dans cette these contribue a l'automatisation d'experience biochimiques et a pour objet l'elaboration d'un systeme informatique pour la generation et l'execution de protocoles experimentaux avec une application particuliere au sequencage d'adn. Il s'inscrit dans le cadre de trois domaines de recherche: la robotique, l'informatique et la biochimie. A l'origine de nos demarches se trouve la difficulte de communication entre un experimentateur (biochimiste ou biologiste dans notre cas) et des systemes informatiques. Chaque domaine a son langage specifique: l'utilisation et le pilotage de robots requierent une bonne connaissance des langages de programmation; le monde biochimique, quant a lui, utilise la notion de protocoles experimentaux, qui correspond a la liste des differentes etapes d'une experience. Ainsi, un langage general de description de protocoles a ete implante au sein d'un systeme interactif permettant le pilotage d'un robot manipulateur d'echantillons liquides. Ce systeme satisfait a la fois les exigences de fiabilite et de reproductibilite des experiences et la necessite d'un environnement convivial et evolutif. Il est fonde sur une architecture du type multi-agents oriente-objet, privilegiant un style d'interaction et de presentation base sur les interfaces a manipulation directe
APA, Harvard, Vancouver, ISO und andere Zitierweisen
5

Flandé, Yves. „Protocoles expérimentaux, tests d'hypothèses et transfert, en sciences, à l'école primaire“. Paris 7, 2000. http://www.theses.fr/2000PA070095.

Der volle Inhalt der Quelle
Annotation:
La recherche étudie les possibilités et les difficultés rencontrées par des élèves de 9 à 11 ans face à la planification des tests d'hypothèses dans une démarche d'investigation. Elle envisage des outils facilitant l'acquisition voire le transfert des compétences mises en oeuvre, ceci pour deux classes suivies en CM1 puis CM2. Une première partie de la thèse fait état des différentes recherches en épistémologie, psychologie, pédagogie et didactique existant sur le sujet, précise les questions de recherche d'où découlent les exigences que doivent satisfaire les séquences d'apprentissage. Une deuxième partie décrit quatre séquences d'enseignement sur des thèmes différents. Au cours de leur investigation les élèves doivent émettre les hypothèses concernant la dépendance éventuelle d'un phénomène par rapport à une ou plusieurs variables, planifier les tests (il faut pur tester chaque hypothèse du type envisagé affecter au moins deux valeurs à la variable), réaliser les protocoles, observer résultats des mesures réalisées, les analyser et en déduire les conclusions par rapport à la dépendance des variables étudiées. La troisième partie synthétise les différentes données (transcripts des séances, d'entretiens - propositions écrites individuelles ou en groupe des élèves - différentes évaluations individuelles), recueillies lors des situations d'apprentissage. Elle s'intéresse aux propositions de protocoles et aux analyses, dégage plusieurs types de difficultés rencontrées par les enfants. Elle analyse l'impact des outils proposés pour les acquisitions de compétences méthodologiques et pour leurs transferts lors d'études différentes. Elle rend compte également de l'évolution individuelle de chaque élève ainsi que celles des deux classes au cours des deux années scolaires. Elle met également en évidence le rôle de l'enseignant dans la gestion de la classe (programmation des activités, propositions des situations, apports de techniques, gestion des débats. . . )
The aim of the work is to study the possibilities and difficulties encountered by pupils (9 to 11 years old) confronted to the generalisation of hypotheses within the framework of an investigation approach. It deals with teaching aids helping to acquire and even transfer to capabilities brought into play in two classes concerned i. E. 4th and 5th grades. The first part of the research work states the various researches in the fields of epistemology, psychology, general education and educational software. It also underlines the questions from which to reduce the requirements to be met with during the learning periods. A second part describes four teaching units on four different subjects. In the course of their investigation approach, pupils have to bring forward hypotheses relates to the purpose dependence of the phenomenon upon one or more factors. They also have to plan the tests (it is required that each hypothesis must be tested with at least two conditions assigned to the factor) to draw up the procedures, assess the results of the measures carried out and finally infer conclusions about the dependence of one factor upon another. The third part brings together the various data (minutes of the group sessions, individual or group proposal in a written from by pupils, individual assessments) collected during the learning periods. It stresses the interest of the procedures and analyses put forward and focuses on types of difficulties that pupils come across. It analyses the impact of the teaching aids offered in order to acquire methodological capabilities and how such aids can be used in other studies. It also assesses the evolution of each individual pupil as well as that the two classes, over the last two school years. It also emphasises the role of the teachers in the way they manage the class (how activities are planned out, situations proposed, techniques brought in and debates dealt with. . . )
APA, Harvard, Vancouver, ISO und andere Zitierweisen
6

Claudet, Joachim. „Aires marines protégées et récifs artificiels : méthodes d'évaluation, protocoles expérimentaux et indicateurs“. Perpignan, 2006. http://www.theses.fr/2006PERP0736.

Der volle Inhalt der Quelle
Annotation:
La gestion des Aires Marines Protégées (AMP) et des Récifs Artificiels (RA) nécessite des évaluations complexes avec des suivis adaptés, incorporant différentes sources de variabilité. Nous avons étudié et développé des protocoles expérimentaux et des méthodes d’analyse appropriés à la mise en place de suivis récurrents des AMP et des RA. Cette méthodologie est développée à partir de données existantes sur différents cas d’étude en Méditerranée nord-occidentale. Nous avons construits des indicateurs multiparamétriques permettant un diagnostic statistiquement testable de l’impact des AMP et des RA sur les assemblages de poissons démersaux-benthiques. Disposer d’indicateurs de la performance écologique de telles structures permet de suivre et de restituer aux gestionnaires les évolutions du système observées lors de l’évaluation. Il fut possible de montrer la réponse globale du peuplement de poissons à la mise en place d’une AMP. Cette réponse, se traduisant par des augmentations d’abondance, de richesse spécifique ou de diversité, est graduelle dans le temps, l’espace et selon les groupes taxonomiques considérés ou la taille des individus d’une même espèce. Les grands individus réagissent le plus vite à la mise en protection et les habitats de faibles profondeurs sont plus sensibles à la présence de la réserve. Nos résultats peuvent servir à la mise en place de nouvelles AMP ou à l’immersion de RA et au développement de leur plan de gestion. Mots-clés : Aires Marines Protégées, Récifs Artificiels, Evaluation d’Impact, Poissons Tempérés, Indicateurs, Multivarié, Habitat, Suivis, Puissance Statistique, Méditerranée Nord-Occidentale, Gestion
Marine Protected Areas’ (MPAs) and Artificial Reef’s (ARs) management requires complex assessment and monitoring programmes, dealing with different sources of variability. We studied and developed experimental designs and analysis methods suited for the establishment of a monitoring of MPAs and ARs. This methodology is developed from existing data sets in the Northwestern Mediterranean. We build multi-criteria indicators allowing a statistically testable diagnosis of the impact of MPAs and ARs on reef fish assemblages. Using ecological performance indicators permits to monitor and to give an image of the assessed system to managers. It was possible to show the global response of the fish assemblages to the protection by a MPA. This response was evidenced by increases in abundance, species richness or diversity, gradually through space, time and among various taxonomic groups or fish individual sizes. Large fishes reacted faster to protection and shallow habitats were more sensitive to the existence of a MPA. Our results can be useful for the implementation of new MPAs or for the immersions of ARs and for the development of their management plans. Key-words : Marines Protected Areas, Artificial Reefs, Impact Assessment, Temperate Fish, Indicators, Multivariate, Habitat, Monitoring, Statistical Power, Northwestern Mediterranean, Management
APA, Harvard, Vancouver, ISO und andere Zitierweisen
7

Pichot, Antoine. „Co-allocation de ressources distribuées : architectures, protocoles, optimisation“. Phd thesis, Paris, ENST, 2008. http://pastel.archives-ouvertes.fr/pastel-00003806.

Der volle Inhalt der Quelle
Annotation:
Les applications de calcul intensif nécessitent de plus en plus de ressources. Ces ressources distribuées bien qu'appartenant à des entités juridiques et administratives différentes doivent être associées logiquement temporairement pour constituer une infrastructure virtuelle afin de résoudre un problème scientifique ou fournir un service donné. Une telle infrastructure virtuelle et le réseau sous jacent est appelée une grille. Les modèles actuels d'exploitation des grilles ne permettent pas de coallouer les ressources et n'offre pas une qualité de service prenant en compte les contraintes réseaux et applicatives. Cette thèse fourni une vision de l'état de l'art en matière de Co-allocation. Différentes architectures sont considérés: les Web Services, l'architecture IP Multimedia Subsystem et Generalized Multi-protocol Label Switching. Des extensions aux logiciels de gestion des grilles, ainsi qu'à ces trois architectures sont proposées. Dans un second temps, nous étudions plus en détail le cœur du système de Co-allocation: le protocole de communication entre l'ordonnanceur de la grille et les ordonnanceurs locaux. Enfin, des algorithmes modélisant l'utilisation des ressources de calcul et des ressources réseaux sont proposés pour déterminer quel est la meilleure interaction possible entre le gestionnaire de ressource réseau et celui des ressources de calcul. Un algorithme de Co-allocation est proposé pour améliorer l'efficacité du système. Un modèle analytique est proposé pour prédire et comprendre les performances, des simulations ont permis de vérifier la validité du modèle et des résultats
New computing applications require nowadays a physical distribution of computing resources. These geographically distributed resources belonging to different organizations must be associated logically in order to solve cooperatively a given problem or to provide a given service. The virtual infrastructure corresponding to the set of these distributed and remote resources and to the inherent underlying networking facilities is called a Grid. Present models do not enable network and other resources such as computing or storage to be co-allocated on demand, nor do they guarantee the Quality of Service. The aim of this thesis is first to provide a review of the state of the art on co-allocation. For that purpose, various environments such as Web Services distributed resources management systems, IP Multimedia Subsystem and Generalized Multi-protocol Label Switching architecture are considered. We propose extensions to existing Grid toolkits, WS, IMS and GMPLS for dynamic resource co-allocation provisioning. The suitability of each of these approaches for Grid services provisioning is investigated and compared to the other alternatives. We then analyze a WS based protocol between a global resource coordinator (Grid Scheduler) and local resources managers (local schedulers). Algorithms are proposed to model the possible interactions between the grid scheduler, the network resource manager and the local schedulers. A co-allocation algorithm is proposed to improve the efficiency as seen by the end user and the resource providers. An analytical model is proposed to predict and understand the performance; simulations are run to verify the validity of the model and the results
APA, Harvard, Vancouver, ISO und andere Zitierweisen
8

Roche, Gilles. „L'angiographie dynamique des membres inferieurs : evaluation, optimisation et protocoles“. Rennes 1, 1992. http://www.theses.fr/1992REN1M036.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
9

Szelechowski, Caroline. „Développement et validation de protocoles expérimentaux pour la réduction de la traînée aérodynamique d'un tricycle“. Mémoire, Université de Sherbrooke, 2014. http://hdl.handle.net/11143/10577.

Der volle Inhalt der Quelle
Annotation:
La réduction de la consommation énergétique est actuellement un point important lors de la conception d'un véhicule qu'il soit à moteur thermique (réduction de la consommation d'essence), électrique (augmenter la distance parcourue sans recharger les batteries) ou hybride. C'est dans cette optique que nous chercherons à réduire les forces de traînée aérodynamique qui s'opposent au mouvement de tout véhicule et qui sont donc à l'origine d'une consommation supplémentaire d'énergie. Grâce au développement des outils de calcul, il est aujourd’hui possible de tester sans fabriquer. En effet, grâce à l’essor de la CFD (Computational Fluid Dynamics) il est désormais possible de reproduire tous nos bancs de tests et nos optimisations de façon numérique. Cependant, ces outils ne sont pas encore parfaits et ils nécessitent des ajustements obtenus grâce à la mise en place de tests expérimentaux. C’est ainsi que les caractérisations et optimisations effectuées sur le tricycle hybride étudié et ses sous-systèmes seront réalisées. L'étude portera principalement sur l'aérodynamique externe du tricycle ainsi que sur ses échangeurs thermiques.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
10

El, Chamie Mahmoud. „Optimisation, contrôle et théorie des jeux dans les protocoles de consensus“. Thesis, Nice, 2014. http://www.theses.fr/2014NICE4094/document.

Der volle Inhalt der Quelle
Annotation:
Les protocoles de consensus ont gagné beaucoup d’intérêt ces dernières années. Dans cette thèse, nous étudions les problèmes d’optimisation, de contrôle, et de théorie de jeu qui se posent dans ces protocoles. Tout d’abord, nous étudions les techniques d’optimisation pour des problèmes de sélection de poids permettant ainsi d’augmenter la vitesse de convergence de protocoles de consensus dans les réseaux. Nous proposons de sélectionner les poids en appliquant un algorithme d’approximation: minimisation de la norme p de Schatten de la matrice de poids. Nous caractérisons l’erreur induite par cette approximation et nous montrons que l’algorithme proposé a l’avantage qu’il peut être soit résolu de façon distribuée. Ensuite, nous proposons un cadre conceptuel d’analyse des jeux d’adversaire qui peut ajouter du bruit aux poids utilisés par l’algorithme de consensus de moyenne afin d’éloigner le système de consensus. Nous analysons également la performance des algorithmes de consensus de moyenne où les informations échangées entre les agents voisins sont soumises à la quantification uniforme déterministe (les valeurs réelles envoyées par les nœuds de leurs voisins sont tronquées). Le problème de la terminaison des protocoles de consensus s’avère difficile dans le cadre distribué. Nous proposons un algorithme distribué pour la terminaison des protocoles de consensus. L’algorithme réduit la charge de communication tout en garantissant la convergence vers un consensus. Enfin, nous proposons une mesure de similarité qui évalue la qualité d’un regroupement (clustering) des nœuds dans un réseau. Un algorithme local de clustering basé sur cette métrique est donné
Consensus protocols have gained a lot of interest in the recent years. In this thesis, we study optimization, control, and game theoretical problems arising in consensus protocols. First, we study optimization techniques for weight selection problems to increase the speed of convergence of discrete-time consensus protocols on networks. We propose to select the weights by applying an approximation algorithm: minimizing the Schatten p-norm of the weight matrix. We characterize the approximation error and we show that the proposed algorithm has the advantage that it can be solved in a totally distributed way. Then we propose a game theoretical framework for an adversary that can add noise to the weights used by averaging protocols to drive the system away from consensus. We give the optimal strategies for the game players (the adversary and the network designer) and we show that a saddle-point equilibrium exists in mixed strategies. We also analyze the performance of distributed averaging algorithms where the information exchanged between neighboring agents is subject to deterministic uniform quantization (e.g., when real values sent by nodes to their neighbors are truncated). Consensus algorithms require that nodes exchange messages persistently to reach asymptotically consensus. We propose a distributed algorithm that reduces the communication overhead while still guaranteeing convergence to consensus. Finally, we propose a score metric that evaluates the quality of clusters such that the faster the random walk mixes in the cluster and the slower it escapes, the higher is the score. A local clustering algorithm based on this metric is proposed
APA, Harvard, Vancouver, ISO und andere Zitierweisen
11

Zayani, Hafedh. „Etude et optimisation des protocoles de réseaux de capteurs sans fil“. Paris, CNAM, 2009. http://www.theses.fr/2009CNAM0953.

Der volle Inhalt der Quelle
Annotation:
This dissertation deals with a proposition of new efficient energy protocols for wireless sensor networks (WSN) which are characterized by a low traffic, a high latency and a limited and non renewable energy. To do so, several works dealing with communication architecture, routing protocols and medium access control (MAC) protocols for Ad hoc networks and WSN were firstly analyzed. This, allowed us to propose a new MAC (ECo-MAC) and routing protocols that benefit from the low traffic feature of the majority of WSN applications enabling thus the saving of energy and an increase of the network lifetime. These protocols are used to create two cross-layered models for the two nodes sensor and base station (BS). To evaluate our proposition, we have used these models in the Optimized Network Engineering Tool (OPNET) simulator. The obtained results, under different network configurations, show important gains in terms of energy saving and latency, compared to works based on the S-MAC protocol. In a second step, we build a sensor and a BS models according to the timed automata formalism and using UPPAAL model checker tool we check the correctness of the new ECo-MAC protocol behaviour and the time slot duration in the worst case. Finally, from a discrete time Markov chains (DTMCs) modelling, we provide, by using probabilistic symbolic model checker (PRISM) tool, a formal justification of our adoption for some parameters values of the backoff procedure of our ECo-MAC protocol
Les travaux présentés dans cette thèse portent sur la mise en place de nouveaux protocoles économiseurs d’énergie pour les réseaux de capteurs sans fil (RCSF). Suite à une analyse approfondie des principaux travaux de recherches sur ce sujet, nous avons proposé de nouveaux protocoles multicouches de routage et de contrôle d’accès au medium (ECo-MAC) permettant d’augmenter de manière significative la durée de vie des ces réseaux. Après la conception de deux modèles génériques de nœuds : « capteur » et « station de base », nous évaluons sous le simulateur OPNET les performances de ces nouvelles propositions. Une analyse comparative avec des travaux de référence, a montré pour différentes configurations de réseaux, l’efficacité de nos propositions en termes de gains énergétiques et de latence de bout en bout. Dans une seconde étape, après description des activités des nœuds du réseau par des automates temporisés, nous avons, à l’aide de l’outil UPPAAL, vérifié le comportement du protocole MAC et justifié formellement les valeurs adoptés en phase de simulation de certains paramètres, en particulier la durée d’un time slot. Dans une dernière étape, partant d’une modélisation de la procédure backoff de notre protocole ECo-MAC basée sur les chaînes de Markov à temps discret, et à l’aide de l’environnement de vérification probabiliste PRISM, nous justifions les choix que nous avons retenus pour les valeurs de certains paramètres intégrés dans cette procédure
APA, Harvard, Vancouver, ISO und andere Zitierweisen
12

Ferrer, Ludovic. „Dosimétrie clinique en radiothérapie moléculaire : optimisation de protocoles et implémentation clinique“. Nantes, 2011. https://archive.bu.univ-nantes.fr/pollux/show/show?id=b7183ac7-6fc1-4281-be4f-8a358c9320fc.

Der volle Inhalt der Quelle
Annotation:
La radiothérapie moléculaire (rtm) consiste à détruire les cibles tumorales à l’aide de vecteurs marqués par des isotopes radioactifs. Cette discipline médicale se développe notamment au travers des succès obtenus dans les traitements des lymphomes non-hodgkiniens (lnh) par radioimmunothérapie. Une des clés de l’optimisation de la rtm repose sur la personnalisation des doses absorbées délivrées, i. E : viser les cibles tumorales en évitant d’être toxique aux tissus sains environnants. Le calcul des doses absorbées en rtm nécessite d’une part, la localisation spatiale et temporelle des vecteurs injectés par imagerie scintigraphique et d’autre part, la connaissance du milieu de transport des radiations émises, obtenue par imagerie tomodensitométrique. La précision globale de la dosimétrie clinique est fonction du niveau de précision de chacune de ces étapes. Actuellement, l’absence de protocole dosimétrique de référence standardisé et la grande hétérogénéité de mise en œuvre de ces protocoles conduisent à une évaluation délicate de la précision des calculs de dose absorbée. À travers ce travail de thèse, nous avons développé et évalué des approches de calcul de la dose absorbée qui nous ont permis de mettre en évidence une relation entre la dose absorbée à la moelle osseuse et la toxicité hématologique chez des patients atteints de lnh. Par ailleurs, nous avons imaginé et initié un projet scientifique, DosiTest, qui vise à évaluer l’impact des étapes permettant la réalisation d’une étude dosimétrique, au moyen d’une inter–comparaison multicentrique virtuelle basée sur une modélisation Monte–Carlo
Molecular radiotherapy (mrt) consists in destructing tumour targets by radiolabelled vectors. This nuclear medi¬cine specialty is being considered with increasing interest for example via the success achieved in the treatment of non-Hodgkin lymphomas by radioimmunotherapy. One of the keys of mrt optimization relies on the personalisa¬tion of absorbed doses delivered to the patient : This is required to ascertain that irradiation is focused on tumour cells while keeping surrounding healthy tissue irradiation at an acceptable — non-toxic — level. Radiation dose evaluation in mrt requires in one hand, the spatial and temporal localization of injected radioactive sources by scintigraphic imaging, and on a second hand, the knowledge of the emitted radiation propagating media, given by CT imaging. Global accuracy relies on the accuracy of each of the steps that contribute to clinical dosimetry. There is no reference, standardized dosimetric protocol to date. Due to heterogeneous implementations, evaluation of the accuracy of the absorbed dose is a difficult task. In this thesis, we developped and evaluated different dosimetric approaches that allow us to find a relationship between the aborbed dose to the bone marrow and haematological toxicity. Besides, we built a scientific project, called DosiTest, which aims at evaluating the impact of the various step that contribute to the realization of a dosimetric study, by means of a virtual multicentric comparison based on Monte–Carlo modelling
APA, Harvard, Vancouver, ISO und andere Zitierweisen
13

Yahya, Eslam. „Modélisation, analyse et optimisation des performances des circuits asynchrones multi-protocoles“. Grenoble INPG, 2009. http://www.theses.fr/2009INPG0145.

Der volle Inhalt der Quelle
Annotation:
Les circuits asynchrones suscitent de nombreux intérêts à bien des égards. Cependant la modélisation, l'analyse et l'optimisation des circuits asynchrones constituent des pierres d'achoppement à la diffusion de cette technologie sur un plan commercial. Ce travail vise le développement de modèles de circuits asynchrones capables de retranscrire efficacement les protocoles « poignée de main ». Sur la base de ces modèles, une technique d'analyse rapide et précise des circuits a été développée. Cette technique offre un support complet pour l'analyse de délais statistiquement variables et pour différentes structures de circuit (linéaire / non linéaire, sans / avec condition). Elle permet de réaliser des analyses statiques de timing, de consommation électrique et des effets des variabilités sur les circuits asynchrones. En sus de ces méthodes de modélisation et d'analyse, une technique d'optimisation a été développée. Cette technique d'optimisation est basée sur une réduction du nombre de registres asynchrones à un nombre minimal capable de satisfaire les contraintes de performance. L'utilisation des méthodes proposées a permis l'étude de différents protocoles asynchrones et de leurs impacts sur la vitesse, la consommation et la variabilité des procédés de fabrication. Les méthodes proposées ont été validées grâce à un jeu d'outils logiciels écrits en C + +, Java et Matlab. Ces outils se sont avérés rapides, efficaces et dotés d'une très bonne précision de calcul
Asynchronous circuits show potential interest from many aspects. However modeling, analysis and optimization of asynchronous circuits are stumbling blocks to spread this technology on commercial level. This thesis concerns the development of asynchronous circuit modeling method which is based on analytical models for the underlying handshaking protocols. Based on this modeling method, a fast and accurate circuit analysis method is developed. This analysis provides a full support for statistically variable delays and is able to analyze different circuit structures (Linear/Nonlinear, Unconditional/Conditional). In addition, it enables the implementation of timing analysis, power analysis and process-effect analysis for asynchronous circuits. On top of these modeling and analysis methods, an optimization technique has been developed. This optimization technique is based on selecting the minimum number of asynchronous registers required for satisfying the performance constraints. By using the proposed methods, the asynchronous handshaking protocol effect on speed, power consumption distribution and effect of process variability is studied. For validating the proposed methods, a group of tools is implemented using C++, Java and Matlab. These tools show high efficiency, high accuracy and fast time response
APA, Harvard, Vancouver, ISO und andere Zitierweisen
14

Arnal, Fabrice. „Optimisation de la fiabilité pour des communications multipoints par satellite géostationnaire“. Phd thesis, Télécom ParisTech, 2004. http://pastel.archives-ouvertes.fr/pastel-00001160.

Der volle Inhalt der Quelle
Annotation:
La thèse s'intéresse au problème de la gestion de la fiabilité dans les réseaux par satellite basés sur la norme de diffusion DVB-S, pour des applications multipoints. En raison de possibles fluctuations des conditions de propagation, le service offert par le lien satellite n'est pas garanti. Le cas échéant, il doit être complété par un service de niveau transport, contraint à limiter l'utilisation de la voie de retour en raison du nombre potentiellement élevé de récepteurs. La première problématique étudiée concerne les concepts à envisager pour concevoir une architecture protocolaire appropriée. L'architecture prévoit de reconsidérer l'utilisation des contrôles d'intégrité des données, et de renforcer la fiabilité sur les en-têtes des différentes couches protocolaires. Ce mécanisme est appelé Multi Protocol Header Protection. La réalisation de ces concepts est également étudiée. Elle est proposée dans le cadre de la méthode Ultra Lightweight Encapsulation permettant la livraison de datagrammes IP par les réseaux DVB. L'exploitation de l'architecture pour deux services de fiabilité est ensuite discutée au niveau des protocoles de transport. Le premier service, appelé fiabilité binaire non contrôlée, peut être offert pour des applications tolérantes aux erreurs binaires. Des simulations démontrent l'intérêt de l'architecture pour ce service. Pour un service de fiabilité totale, l'élaboration d'un procédé de fiabilisation adapté à l'architecture est étudiée. Le procédé fait intervenir un algorithme de décodage FEC adapté. L'évaluation globale de l'approche estime que pour un service identique, 5 à 30 fois moins de données peuvent être économisées comparativement à une architecture conventionnelle.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
15

Tourki, Kamel. „Conception et optimisation de protocoles de coopération pour les communications sans fil“. Nice, 2008. http://www.theses.fr/2008NICE4006.

Der volle Inhalt der Quelle
Annotation:
Les mécanismes de coopération sont de plus en plus important dans les communications sans fil et réseaux permettant d'accroître les performances du système et ce en diminuant la consommation d'énergie, en augmentant la capacité du système et en rendant les taux de perte de paquets plus petits. L'idée de coopération peut être retracée par une étude en théorie de l'information sur le canal à relais dans le réseau cellulaire. D'un point de vue système, puisque un mobile (MS) a des limites de taille (antenne unique), de puissance, de coût et de matériel, il devient irréalisable d'utiliser la technologie MIMO pour un MS. Les utilisateurs mobiles avec antennes uniques peuvent encore profiter de la diversité spatiale par le biais de transmissions coopératives codées en espace temps. L'objectif de cette thèse est d'introduire et de discuter de diverses stratégies de coopération dans les communications sans fil. Dans la première partie, nous présentons une analyse de performances de bout en bout d'une communication coopérative asynchrone et à saut multiple, utilisant des relais regénératifs évoluant dans un canal de Rayleigh en évanouissement plat. Le schéma de conception est basé sur un précodage sur les trames qui seront encodés par paires. Ce précodage est basé sur l'ajout d'un préfixe cyclique, contenant une séquence d'apprentissage. Nous développons le taux d'erreur sur les bits et le taux d'erreur sur les bites de bout en bout relativement à une modulation BPSK, pour des canaux à gains égaux et à gains différents. Nous présentons aussi les performances en taux d'erreur sur les trames et le taux d'erreur sur les trames de bout en bout. Finalement, nous présentons une comparaison entre trois configurations que nous avons introduit, différenciées par le degré de coopération. La deuxième partie contient deux chapitres. Dans le premier chapitre, nous considérons un système dans lequel un relais choisit de coopérer que si le canal source-relais est d'une qualité acceptable et nous évaluons l'utilité du relayage lorsque la source agit aveuglément et ignore la décision des relais s'ils peuvent coopérer ou non. Dans notre étude, nous considérons de relais regénératifs pour lesquels les décisions de coopération sont fondées sur un rapport signal à bruit (SNR) seuil et d'examiner l'éventuel impact d'une détection et transmission d'erreurs par le relais. Nous dérivons le taux d'erreur sur les bits (BER) de bout en bout pour une modulation BPSK et nous examinons deux stratégies de répartition de puissance entre la source et le relais afin de minimiser le BER de bout en bout au niveau de destination pour un ordre de SNR élevé. Dans le second chapitre, nous consédérons un schéma dans lequel un relais choisit de coopérer seulement lorsque le canal source-destination est d'une qualité inaccepable. Dans notre étude, nous considérons une relais regénératif pour lequel la décision de coopération est basée sur un seuil du rapport signal à bruit et nous considérons les effets d'une éventuelle détection et transmission d'erreur par le relais. Nous développns l'expression du taux d'erreur sur les bits pour une modulation BPSK et nous examinons une stratégie optimale permettant de minimiser ce BER de bout en bout pour un orde de SNR élevé. Dans la troisième partie, nous considérons un canal à accès multiple MAC où deux utilisateurs communiquent avec une destination commune. Chaque utilisateur agit mutuellement comme un relais pour l'autre ainsi qu'il tient à transmettre ses propres informations, par opposition à une consacration totale au relayage. Nous tenons à évaluer l'utilité du relais d'un point de vue somme des taux du système (sum rate) plutôt que d'un point de vue de l'utilisateur bénéficiant de la coopération qui se fait habituellement. Nous faisons cela en permettant un compromis entre le relayage et la transmission de données via une d'allocation des ressources. Concrètement, nous proposons un régime de transmission coopérative permettant à chaque utilisateur d'allouer une certaine fraction de puissance pour sa propre transmission de données tandis que le reste est consacré au relayage. Le protocole sous-jacent est basé sur une modification du protocole Non-Orthogonal Amplify and Forward (NAF). Nous développons les expressions de capacité pour notre modèle et nous présentons une allocation de puissance optimisant une forme approche du sum rate, pour les cas centralisé et distribué. Dans le scénario distribué, une connaissance hybride de l'état du canal, partie statistique et partie instantanée, est exploitée. L'algorithme d'allocation de puissance dans le cas centralisé indique que, même dans une coopération mutuelle comme la notre, quelle que soit la réalisation du canal, la coopération mutuelle n'est jamais réelle, c'est-à-dire l'un des utilisateurs allouera toujours une puissance nulle pour relayer les données de l'autre, et donc agit égoïstement. Mais dans le cadre distribué, nos résultats indiquent que la somme des taux est maximisée lorsque les deux mobiles agissent égoïstement
Cooperative mechanisms are becoming increasingly important in wireless communications and networks to substantially enhance system performance with respect to much less power consumption, higher system capacity and smaller packet loss rate. The idea of cooperation can be traced back to the information theory investigation on relay channel in cellular network. From the system point of view, since Mobile Station (MS) has limitations in single antenna, power, cost and hardware, it is infeasible to use MIMO technology in MS. Mobile users with single antennas can still take advantage of spatial diversity through cooperative space-time encoded transmission. The objective of this thesis is to introduce and discuss various cooperative strategies in wireless communications. In the first part, we present an end-to-end performance analysis of two-hop asynchronous cooperative diversity with regenerative relays over Rayleigh block-flat-fading channels, in which a precoding frame-based scheme with packet-wise encoding is used. This precoding is based on the addition of a cyclic prefix which is implemented as a training sequence. We derive, for equal and unequal sub-channel gains, the bit-error rate and the end-to-end bit-error rate expressions for binary phase-shift keying. We also present the performance of the frame-error rate and the end-to-end frame-error rate. Finally, comparisons between three system configurations, differing by the amount of cooperation, are presented. The second part contains two chapters. In the first chapter, we consider a scheme in which a relay chooses to cooperate only if its source-relay channel is of an acceptable quality and we evaluate the usefulness of relaying when the source acts blindly and ignores the decision of the relays whether they may cooperate or not. In our study, we consider the regenerative relays in which the decisions to cooperate are based on a signal-to-noise ratio (SNR) threshold and consider the impact of the possible erroneously detected and transmitted data at the relays. We derive the end-to-end bit-error rate (BER) for binary phase-shift keying modulation and look at two power allocation strategies between the source and the relays in order to minimize the end-to-end BER at the destination for high SNR. In the second chapter, we consider a scheme in which the relay chooses to cooperate only if the source-destination channel is of an unacceptable quality. In our study, we consider a regenerative relay in which the decision to cooperate is based on a signal-to-noise ratio (SNR) threshold and consider the effect of the possible erroneously detected and transmitted data at the relay. We derive an expression for the end-to-end bit-error rate (BER) of binary phase-shift keying (BPSK) modulation and look at the optimal strategy to minimize this end-to-end BER at the destination for high SNR. In the third part, we consider a multiple access MAC fading channel with two users communicating with a common destination, where each user mutually acts as a relay for the other one as well as wishes to transmit his own information as opposed to having dedicated relays. We wish to evaluate the usefulness of relaying from the point of view of the system's throughput (sum rate) rather than from the sole point of view of the user benefiting from the cooperation as is typically done. We do this by allowing a trade-off between relaying and fresh data transmission through a resource allocation framework. Specifically, we propose cooperative transmission scheme allowing each user to allocate a certain amount of power for his own transmitted data while the rest is devoted to relaying. The underlying protocol is based on a modification of the so-called non-orthogonal amplify and forward (NAF) protocol. We develop capacity expressions for our scheme and derive the rate-optimum power allocation, in closed form for centralized and distributed frameworks. In the distributed scenario, partially statistical and partially instantaneous channel information is exploited. The centralized power allocation algorithm indicates that even in a mutual cooperation setting like ours, on any given realization of the channel, cooperation is never truly mutual, i. E. One of the users will always allocate zero power to relaying the data of the other one, and thus act selfishly. But in distributed framework, our results indicate that the sum rate is maximized when both mobiles act selfishly
APA, Harvard, Vancouver, ISO und andere Zitierweisen
16

Randriatsiferana, Rivo Sitraka A. „Optimisation énergétique des protocoles de communication des réseaux de capteurs sans fil“. Thesis, La Réunion, 2014. http://www.theses.fr/2014LARE0019/document.

Der volle Inhalt der Quelle
Annotation:
Pour augmenter la durée de vie des réseaux de capteurs sans fil, une solution est d'améliorer l'efficacité énergétique des protocoles de communication. Le regroupement des nœuds du réseau de capteurs sans fil en cluster est l'une des meilleures méthodes. Cette thèse présente propose plusieurs améliorations en modifiant les paramètres du protocole de référence LEACH. Pour améliorer la distribution énergétique des "cluster-heads", nous proposons deux protocoles de clustering centralisés k-LEACH et sa version optimisée k-LEACH-VAR. Un algorithme distribué, appelé e-LEACH, est également proposé pour réduire l'échange d'information périodique entre les nœuds et la station de base lors de l'élection des "cluster-heads". Par ailleurs, le concept l'équilibrage énergétique est introduit dans les métriques d'élection pour éviter les surcharges des nœuds. Ensuite, nous présentons une version décentralisée de k-LEACH qui, en plus des objectifs précédents, intègre la consommation d'énergie globale du réseau. Ce protocole, appelé, k-LEACH-C2D, vise également à favoriser la scalabilité du réseau. Pour renforcer ce dernier et l'autonomie des réseaux, les deux protocoles de routage "multi-hop" probabiliste, dénotés FRSM et CB-RSM construisent des chemins élémentaires entre les "cluster-heads" et la station de base. Le protocole CB-RSM forme une hiérarchie des "cluster-heads" pendant la phase de formation des clusters, en mettant un accent sur l'auto-ordonnancement et l'auto-organisation entre les "cluster-heads" pour rendre les réseaux le plus "scalable". Ces différents protocoles reposent sur l'idée de base que les nœuds ayant l'énergie résiduelle la plus élevée et la plus faible variance de consommation de l'énergie deviennent "cluster-head". Nous constantans le rôle central de la consommation du nœud dans nos différentes propositions. Ce point fera l'objet de la dernière partie de cette thèse. Nous proposons une méthodologie pour caractériser expérimentalement la consommation d'un nœud. Les objectifs visent à mieux appréhender la consommation pour différentes séquences d'état du nœud. Enfin, nous proposons un modèle global de la consommation du nœud
To increase the lifetime of wireless sensor networks, a solution is to improve the energy efficiency of the communication's protocol. The grouping of nodes in the wireless sensor network clustering is one of the best methods. This thesis proposes several improvements by changing the settings of the reference protocol LEACH. To improve the energy distribution of "cluster-heads", we propose two centralized clustering protocols LEACH and k-optimized version k-LEACH-VAR. A distributed algorithm, called e-LEACH, is proposed to reduce the periodic exchange of information between the nodes and the base station during the election of "cluster-heads". Moreover, the concept of energy balance is introduced in metric election to avoid overloading nodes. Then we presented a decentralized version of k-LEACH, which in addition to the previous objectives, integrates the overall energy consumption of the network. This protocol, called k-LEACH-C2D, also aims to promote the scalability of the network. To reinforce the autonomy and networks, both routing protocols "multi-hop" probability, denoted CB-RSM and FRSM build elementary paths between the "cluster-heads" and elected the base station. The protocol, CB-RSM, forms a hierarchy of "cluster-heads" during the training phase clusters, with an emphasis on self-scheduling and self-organization between "cluster-heads" to make the networks more scalable. These protocols are based on the basic idea that the nodes have the highest residual energy and lower variance of energy consumption become "cluster-head". We see the central role of consumption of the node in our proposals. This point will be the last part of this thesis. We propose a methodology to characterize experimentally the consumption of a node. The objectives are to better understand the consumption for different sequences of the node status. In the end, we propose a global model of the consumption of the node
APA, Harvard, Vancouver, ISO und andere Zitierweisen
17

Diebold, Simon. „Contribution à la définition d'une dosimétrie laser en thérapie photo-dynamique anti-cancéreuse : protocoles expérimentaux, mesures automatisées, modélisation associée“. Vandoeuvre-les-Nancy, INPL, 1991. http://www.theses.fr/1991INPL034N.

Der volle Inhalt der Quelle
Annotation:
La Thérapie Photo-Dynamique est une nouvelle technique de traitement anti-cancéreux qui utilise un agent photo-sensibilisant dérivé de l'Hémato-Porphyrine (HpD) qui se fixe préférentiellement dans les tissus néoplasiques et qui devient toxique sous l'effet d'une illumination par une lumière de longueur d'onde appropriée (630 nm). Composante essentielle de l'efficacité biologique, la quantité de lumière absorbée par le photo-sensibilisant fixé dans les tissus pathologiques doit pouvoir être calculée et non fixée empiriquement, afin de définir une dosimétrie précise du traitement. La démarche scientifique adoptée pour étudier l'absorption lumineuse dans les tissus biologiques repose sur un modèle statistique simulant l'évolution photonique dans une masse tissulaire. Cette simulation, paramétrée par des coefficients microscopiques est destinée à obtenir une approche théorique de l'évolution de la lumière dans les tissus. Ce mémoire présente, outre cette modélisation, les protocoles expérimentaux destinés à parfaire la connaissance des phénomènes impliqués dans la Thérapie Photo-Dynamique : le premier consiste en une cellule de mesure automatisée chargée d'étudier le comportement de la lumière dans les fluides biologiques. Cette approche expérimentale originale permet de construire un second protocole, in vivo, sur un modèle animal. Les résultats de ces deux campagnes de mesures sont présentés, puis confrontés au modèle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
18

Castelluccia, Claude. „Generation automatique d'implementation optimisees de protocoles“. Nice, 1996. http://www.theses.fr/1996NICE4957.

Der volle Inhalt der Quelle
Annotation:
Un compilateur de protocoles est un outil qui genere a partir d'une specification formelle d'un protocole une implementation. Les compilateurs de protocoles produisent generalement du code de qualite mediocre en terme de vitesse d'execution et de taille du code et sont, pour cette raison, peu utilises. Dans cette these, nous montrons qu'en utilisant une approche synchrone et en optimisant le code genere, il est possible de compiler des specifications formelles en des implementations tres performantes. Nous avons developpe un compilateur de protocoles qui utilise ces deux techniques. Ce compilateur prend en entree une specification modulaire du protocole ecrite dans le langage synchrone esterel. La specification est compilee en un automate sequentiel par le compilateur esterel dans un format intermediaire (le format oc). L'automate est alors optimise et transforme en une implementation c par notre optimisateur de protocoles, appele hippco. Hippco ameliore les performances du code et reduit sa taille en optimisant simultanement la vitesse d'execution du chemin commun et la taille du chemin rare. Nous evaluons les performances des implementations de notre compilateur en specifiant le protocole tcp et en comparant les performances de l'implementation automatiquement generee avec celle d'une version manuelle derivee de l'implementation standard bsd. Les resultats sont tres encourageants. Le code genere par hippco execute moins d'instructions et utilise le cache d'instructions et le pipelining plus efficacement que le code bsd tout en ayant une taille de code raisonnable
APA, Harvard, Vancouver, ISO und andere Zitierweisen
19

Banaouas, Iskander. „Analyse et optimisation des protocoles d'accès dans les réseaux sans fil ad hoc“. Paris 6, 2012. http://www.theses.fr/2012PA066005.

Der volle Inhalt der Quelle
Annotation:
Dans cette thèse, nous proposons d'étudier les techniques d'accès dans les réseaux sans fil ad hoc en évaluant le gain en performance offert par certaines d'entre elles par rapports aux autres. Il s'agit aussi de modéliser les performances de ces techniques d'accès a travers des modèles mathématiques. Ceci nous permet entre autres d'étudier la sensibilité de tels protocoles a certaines contraintes des réseaux ad hoc. Cette thèse se présente comme suit: D'abord on présente les modèles utilisés afin de décrire le comportement aléatoire de certaines techniques d'accès. Ensuite on applique ces modèles afin de comparer la distribution du rapport signal sur bruit dans les réseaux CSMA et TDMA. On compare ensuite les protocoles d'accès les plus répandues dans les réseaux d'accès, a savoir CSMA et Aloha. On utilise une modélisation de processus de Poisson pour calculer la probabilité de couverture pour Aloha et Aloha slotté. Enfin, on mesure le gain offert par CSMA sur le multiplexage purement statistique des transmissions d'Aloha. CSMA étant le protocole le plus répandue dans les MANETs, cette dernière se trouve exposée à des situations d'inéquité surtout lorsque le réseau est surchargé. On quantifie ce problème d'inéquité en se basant sur une modélisation markovienne. Cette étude nous permet de prévoir les effets de l'inéquité sur des scénarios de déploiement et de proposer des solutions se basant sur l'adaptation des fenêtres de contention pour atténuer ce problème. Enfin, nous étudions l'utilisation d'Aloha dans les réseaux cognitifs. Dans ce contexte, nous montrons comment deux réseaux utilisant Aloha peuvent coexister. Le réseau secondaire doit ne peut perturber le réseau primaire qu'en provoquant une dégradation bornée de celui-ci. On optimise la probabilité de transmission afin de maximiser l'accès Aloha du réseau secondaire
In this thesis, we study the Medium Access protocols in wireless ad hoc networks by evaluating their performances with respect to others. Hence we use an analytical modeling of these access techniques using stochastic models. These models, sustained by simulations, are useful to estimate a MAC protocol's sensitivity for some network constraints. This thesis is presented as follows: First we present the models used to describe the random behavior of some MAC protocols. Second, we apply those models to compare Signal to noise ratio in TDMA and CSMA networks. We compare then the most frequently used access protocols (CSMA and Aloha). We use an analytical model based Poisson Point Processes to calculate the coverage probability of Aloha. Finally we evaluate the gain of CSMA with respect to the two latter protocols. Although CSMA is the most widely used MAC protocol for MANETs, this technique is exposed to unfairness phenomenon if the network is overloaded. We quantify this problem using a Markovian approach. This approach lets us prevent the distribution of unfairness in the network, and then suggest unfairness mitigating solutions based on contention window tuning. Finally, we study the using of Aloha in cognitive networks. In this context, a secondary network tries to optimize its network access probability so that it maximizes it's coverage density while the coverage probability of the primary network is altered by an acceptable rate
APA, Harvard, Vancouver, ISO und andere Zitierweisen
20

Kermorvant, Claire. „Optimisation de protocoles d'échantillonage appliqués aux suivis de la biodiversité et des ressources“. Thesis, Pau, 2019. http://www.theses.fr/2019PAUU3018/document.

Der volle Inhalt der Quelle
Annotation:
Cette thèse s’intègre dans un contexte où les méthodes utilisées pour la mise en place de suivis environnementaux sont souvent problématiques et peuvent mener à des résultats controversables. L’objectif est de proposer une méthodologie adaptable à la plupart des suivis environnementaux qui permettra aux utilisateurs de produire des suivis scientifiques efficaces ou d’optimiser des suivis déjà en place. Nous avons développé une méthodologie qui permet à l’utilisateur de fixer la précision qu’il veut sur ses résultats d’estimation et qui lui renvoie un protocole d’échantillonnage optimal associé à un nombre d’unités statistiques à échantillonner. Une fois le nombre de points connu, il est simple d’estimer le coût de mise en place dela procédure d’échantillonnage sélectionnée sur le terrain.Nous sommes partis de la définition même de la performance d’un protocole d’échantillonnage pour élaborer une méthodologie sous forme de procédure séquentielle qui permet de tester, puis de choisir, le protocole le plus performant pour chaque étude. Plus un protocole d’échantillonnage est performant, moins il nécessite d’unités statistiques pour atteindre une précision voulue. La méthodologie présentée permet donc, pour une (ou des) précision(s) désirée(s) sur les résultats, de déterminer puis de comparer le nombre optimal d’unités statistiques à échantillonner pour différents protocoles. La première étape de la procédure développée nécessite de recréer mathématiquement la population statistique la plus représentative possible de la population étudiée. Ensuite, les différentes combinaisons protocole d’échantillonnage / nombre d’unités statistiques sont simulées puis comparées. Cela permet d’obtenir le meilleur rapport coût-efficacité pour une étude nécessitant un échantillonnage dans un objectif d’inférence, autrement dit, de baisser son prix tout en garantissant une précision adéquate.Les objectifs de cette thèse ont été atteints : la méthode à été développée puis testée sur trois cas d’études. Le premier est la mise en place d’un suivi efficace lorsqu’il n’existe pas de données disponibles. L’exemple utilisé est celui de la mise en place du suivi du moustique tigre sur l’agglomération de Bayonne-Anglet-Biarritz. L’espèce est en début d’invasion dans cette zone et il n’existe donc quasiment pas de données de suivi. Nous avons récupéré les données de détection dans des villes méditerranéennes, les avons modélisées et avons appliqué le modèle à l’agglomération d’intérêt pour ensuite y définir un protocole de suivi optimal.Le second cas d’étude est l’optimisation d’un suivi lorsque seulement une saison de données est disponible. L’exemple est celui du suivi de la palourde dans le bassin d’Arcachon. Ce suivi est effectué tous les 2 ans depuis 2006, nous avons travaillé sur une seule année de données et prouvé qu’il était possible d’optimiser ce suivi. C’est-à-dire baisser son coût de 30% en gardant une précision assez bonne sur les résultats pour être en capacité de mettre en place des mesures de gestion adaptées. Nous avons ensuite travaillé sur toutes les données depuis 2006 pour proposer une optimisation de ce suivi pérenne dans le temps
Developing robust, and reliable, environmental surveys can be a challenge because of the inherent variation in natural environmental systems. This variation, which creates uncertainty in the survey results, can lead to difficulties in interpretations. The objective of this thesis was to develop a general framework, adaptable to environmental surveys, to improve scientific survey-results. We have developed a method that allows the user, by defining their desired level of accuracy for the survey results, to develop an efficient sampling design with a minimal sample size.Once the sample size is known, calculating total cost of the survey becomes straightforward. We start from the definition of sampling design performance and build a method for comparison and assessment of an optimal sampling design. As a rule of thumb, the more efficient a sampling design is, the fewer statistical units are needed to achieve the desired accuracy. With less sampling effort the sampling procedure becomes more cost effective. Our method assists in identifying cost-efficient sampling procedures.In this PhD thesis a general methodology is developed, and it is assessed with three case studies. The first case study involved design of an efficient survey when no prior data are available. Here we used the example of tiger mosquito in the Bayonne-Anglet-Biarritz agglomeration (south-west France). This species has only now started invading this area and therefore there are no site-specific data available. We used data from other French Mediterranean’s cities to model the probability mosquito are present in the Bayonne-Anglet-Biarritz area of interest. We used this modelled-population to assess, compare and select an effective sampling procedure.The second case study was for survey optimization when only one season of data are available. The chosen example was from Arcachon bay’s manila clam survey in western France. This clam-monitoring has been done biennially (i.e. once every two years) since 2006. We applied our general methodology on one-year data and demonstrated that survey costs can be reduced by 30% a year with no loss of accuracy or reduction in resource management information. The third case study was based on optimization of a survey when several seasons of data are available. We used the clam surveyed but here as a multi-year dataset. We proposed a long-term spatial and temporal sampling design for monitoring the clam resource
APA, Harvard, Vancouver, ISO und andere Zitierweisen
21

Rombaut, Matthieu. „Optimisation des réseaux, routage et dimensionnement“. Versailles-St Quentin en Yvelines, 2003. http://www.theses.fr/2003VERS0015.

Der volle Inhalt der Quelle
Annotation:
The study presented in this document proposes an industrial approach of the problem of network routing on constrained capacity. Many mathematics studies were done to define methods to design optimal backbone network, or the optimal routing plan on uncapacitated network. Those methods solve linear program or integer program. Some approximation or relaxation must be done to solve most of actual problems. Moreover, the proposed routing plans are in most of the case mono routing plan. Using shortest path algorithms make flows to use a single path, they do not allow the use of subsidiary links taht could be under utilized. We propose in this work routing methods on links of constrained capacities, the Mille Feuilles, and some evolution of the Mille Feuilles algorithm that permit limiting the number of paths. Those methods can be applied for the backbone network conception, and can be defined with several cost functions. Those methods are very close to optimal routing defined with projected gradient without limitation of the number of paths. Used with a non cumulative cost function on the path, they allow decreasing the maximal link load ratio, and increasing the network reliability to flow uncertainties and to single link failure. Moreover, we evaluate performances of several re-routing methods in case of single link failure depending of the rerouting policy applied. The link load variation and the average path lengths variation are bound depending on the re-routing. The routing and re-routing methods are not similar and a routing method adapts itself differently depending on the re-routing method. A new rerouting method is also proposed, that can be applied for any multi-routing plan
Cette étude propose une approche industrielle du problème de routage de données sur des réseaux aux capacités contraintes. Un certain nombre d'études mathématiques ont été réalisées pour définir des plans de routage, par résolution de problèmes linéaires ou en nombres entiers. On constate alors que des approximations doivent être faites pour appliquer les méthodes mathématiques aux problèmes réels. D'autre part, les routages proposés sont pour la plupart simples (mono-routage). L'utilisation des algorithmes de plus courts chemins contraint souvent les flux sur une route unique, ils ne permettent généralement pas l'utilisation de liens annexes dont la charge est faible. Nous proposons des méthodes de routage de flux sur des liens de capacités finies, le routage Mille Feuilles, et des variantes de ce routage permettant de limiter le nombre de routes. Ces méthodes sont applicables au niveau de la conception ou de l'exploitation des réseaux. Ces méthodes d'optimisation par projections successives permettent de mettre en œuvre différentes fonctions coût, elles permettent d'approcher des solutions optimales obtenues à l'aide de méthode de gradient projeté. Associée à une métrique non cumulative sur la route, elles permettent de calculer des plans de routage multi-routes, de diminuer le taux charge du lien le plus chargé sur le réseau 'augmenter la résistance du réseau aux variations de trafic et à l'apparition d'une panne simple. D'autre part, nous évaluons les performances de plusieurs méthodes de re-routage en cas de panne simple d'un lien, en fonction des méthodes de routage appliquées. L'impact des re-routages sur le réseau est évalué, la variation de la charge des liens et la variation de la longueur moyenne des routes sont bornées. Les méthodes de routages ne sont pas équivalentes et elles s'adaptent différemment aux politiques de re-routage proposées. En outre, une nouvelle politique de re-routage applicable aux plans de routage multi-routes est introduite
APA, Harvard, Vancouver, ISO und andere Zitierweisen
22

Philippe, Bernard. „Système d'aide à la conception des protocoles expérimentaux en communication homme-machine, fondé sur une méthodologie d'analyse orientée par les objets“. Valenciennes, 1993. https://ged.uphf.fr/nuxeo/site/esupversions/60866969-4737-4d1c-bb57-bf7f40582f61.

Der volle Inhalt der Quelle
Annotation:
Les expérimentations dans le domaine de l'évaluation des interfaces graphiques de communication Homme-Machine, dont le développement est particulièrement long et fastidieux, possèdent à la fois un tronc commun important et de nombreuses variantes dues à la diversité des représentations graphiques à évaluer et des traitements à effectuer. L'objet de cette thèse est de présenter une méthode d'analyse orientée par les objets permettant de décrire un protocole expérimental en termes d'entités modulaires et réutilisables. La méthode développée, appelée MARIGO, Méthode d'Analyse Rationnelle des Interfaces Graphiques Objets, guide l'expérimentateur dans toutes les étapes de la conception de son expérience, et permet d'aboutir à une formalisation du protocole expérimental indépendante du matériel et du langage à partir desquels il sera implémenté. Un exemple d'application de la méthode MARIGO est développé à partir d'une expérience, précédemment réalisée au laboratoire, portant sur l'élaboration d'un modèle d'aide à la décision dans la conduite de processus industriels représentés par des vues graphiques. De manière à pouvoir mettre en œuvre la description d'une expérimentation particulière obtenue à l'aide de la méthode MARIGO, un outil spécifique a été développé. Cet outil, le GIPE, Générateur Interactif de Protocoles Expérimentaux, offre une grande souplesse d'utilisation et permet à l'expérimentateur de pouvoir ainsi se consacrer pleinement à sa tâche, sans se préoccuper des problèmes, non négligeables, engendrés par la mise en œuvre du système informatique support de l'expérience.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
23

Bouallegue, Mehdi. „Protocoles de communication et optimisation de l'énergie dans les réseaux de capteurs sans fil“. Thesis, Le Mans, 2016. http://www.theses.fr/2016LEMA1011/document.

Der volle Inhalt der Quelle
Annotation:
Les réseaux de capteurs sans fil (RCSFs) sont constitués d’un grand nombre de noeuds de capteurs qui sont généralement alimentés par batterie et conçu pour fonctionner pendant une grande période. Les domaines d’application sont nombreux et variés, tel que le domaine environnementale, médicale et militaire.L’atout majeur de ce dispositif est un déploiement à grande échelle sans aucune maintenance. Les capteurs n’ont pas besoin d’une infrastructure établie pour parvenir à transmettre des données vitales à l’étude de l’environnement. Il est nécessaire également de garantir une bonne qualité de service, car les réseaux de capteurs sans fils doivent intégrer des mécanismes qui permettent aux utilisateurs de prolonger la durée de vie du réseau en entier, car chaque noeud est alimenté par une source d’énergie limitée et généralement irremplaçable.C’est pourquoi, il est nécessaire d’optimiser la consommation d’énergie à tous les niveaux de conception de ce type de réseau. Par conséquent, la minimisation de la consommation d’énergie est un facteur de conception des plus importants dans les réseaux de capteurs.Le but de cette thèse est étudier les différents techniques de routages existant dans un contexte sans fil multi-saut afin d’obtenir de meilleures performances. Nous portons notre étude sur les protocoles de routages les plus connus afin de proposer dans une deuxième partie un nouveau protocole de routage permettant d’optimiser la consommation d’énergie dans les réseaux de capteurs sans fil, en gardant une qualité de service optimale
Wireless sensor networks (WSNs) are composed of a large number of sensor nodes that are typicallybattery-powered and designed to operate for a long period. Application areas are many and varied, such as the environmental field, medical and military.The major advantage of this device is a large-scale deployment without any maintenance. The sensors do not need to achieve an established infrastructure to transmit vital data to the study of the environment. It is also necessary to ensure good quality service, because without son sensor networks must incorporate mechanisms that allow users to extend the life of the entire network, as each node is supplied by a limited power source and generally irreplaceable. Therefore, it is necessary to optimize the power consumption at all levels of design of this type of network. Accordingly, minimization of power consumption is one of the most important design factors in sensor networks.The aim of this thesis is study the different existing routing techniques in a context without multi-hop son to get better performance. We carry our study of the most popular routing protocols to offer in a second part a new routing protocol for optimizing energy consumption without son sensor networks, keeping an optimal quality of service
APA, Harvard, Vancouver, ISO und andere Zitierweisen
24

Pavkovic, Bogdan. „Vers le futur Internet d'objets au travers d'une optimisation inter-couches des protocoles standardisés“. Phd thesis, Université de Grenoble, 2012. http://tel.archives-ouvertes.fr/tel-00849136.

Der volle Inhalt der Quelle
Annotation:
Le paradigme d'Internet des objets (IdO) envisage d'augmenter l'Internet actuel avec un grand nombre de dispositifs intelligents communicants. Les réseaux de capteurs sans fil (RCsF) déploient les appareils fonctionnant sur les approvisionnements énergétiques maigres et mesurent les phénomènes environnementaux (comme la température, la radioactivité, ou CO2). Les applications populaires de réseaux de capteurs sans fil comprennent la surveillance, la télémétrie et la prévention des catastrophes naturelles. Les majeurs défis de réseaux de capteurs consistent à: comment obtenir l'efficacité énergétique? Comment surmonter les déficiences de support sans fil? et comment les faire fonctionner d'une manière auto-organisée? L'intégration de réseaux de capteurs dans IoD s'appuiera sur un ensemble de standards ouverts qui s'efforcent d'offrir le passage à l'échelle, la fiabilité dans une variété des conditions, et les scénarios d'exploitation. Néanmoins, les standards dans leur état actuel ont des problèmes d'interopérabilité et peuvent bénéficier de nouvelles améliorations. Les contributions de la thèse sont les suivantes: * Nous avons mené une analyse expérimentale et identifié les caractéristiques d'un environnement de réseau de capteurs. Notre analyse a porté sur la modélisation des liens et la dynamique du réseau, ainsi que la corrélation des liens avec les paramètres environnementaux. L'étude analytique nous a permis d'identifier les principales faiblesses de l'environnement du RCsF et a permis aussi d'obtenir une meilleure compréhension de la dynamique de lien radio et le voisinage des nœuds. * Nous avons confrontés la question de l'interopérabilité des deux principaux standards - IEEE 802.15.4 dans la couche de contrôle d'accès au medium, et RPL dans la couche de transport. Nous proposons d'adapter la structure originale de cluster tree et de construire un framework élégant, qui permettra le fonctionnement conjoint de l'IEEE 802.15.4 et RPL sans l'apparition des collisions. En outre, nous évaluons à travers de nombreuses simulations les deux algorithmes distribués d'attribution de slots. Ces algorithmes permettront d'atteindre un fonctionnement presque sans collisions. * Nous proposons une solution inter-couche distribuée dans le but de construire une topologie afin que IEEE 802.15.4 et RPL puissent fonctionner ensemble. Notre algorithme auto-organisé obtient une structure topologique obéissante aux recommandations globales, cela, par la seule utilisation des métriques mesurées localement. De nombreuses simulations démontrent les avantages de la structure résultante en termes de convergence de temps, de stabilité, et d'efficacité énergétique dans le long terme. Les simulations démontrent aussi un impact positif sur les performances de routage. * Nous proposons un ensemble de nouveaux mécanismes qui permettront d'améliorer les performances de RPL et d'utiliser la Qualité de Service pour gérer les problèmes de trafic sensible. Notre extension de routage opportuniste et multi-chemin contribue à améliorer la livraison des paquets avant une date limite, tout en minimisant le surcout et la consommation d'énergie par rapport à la version de base de RPL.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
25

Medjiah, Samir. „Optimisation des protocoles de routage dans les réseaux multi-sauts sans fil à contraintes“. Thesis, Bordeaux 1, 2012. http://www.theses.fr/2012BOR14663/document.

Der volle Inhalt der Quelle
Annotation:
Durant ces dernières années, de nombreux travaux de recherches ont été menés dans le domaine des réseaux multi-sauts sans fil à contraintes (MWNs: Multihop Wireless Networks). Grâce à l'évolution de la technologie des systèmes mico-electro-méchaniques (MEMS) et, depuis peu, les nanotechnologies, les MWNs sont une solution de choix pour une variété de problèmes. Le principal avantage de ces réseaux est leur faible coût de production qui permet de développer des applications ayant un unique cycle de vie. Cependant, si le coût de fabrication des nœuds constituant ce type de réseaux est assez faible, ces nœuds sont aussi limités en capacité en termes de: rayon de transmission radio, bande passante, puissance de calcul, mémoire, énergie, etc. Ainsi, les applications qui visent l'utilisation des MWNs doivent être conçues avec une grande précaution, et plus spécialement la conception de la fonction de routage, vu que les communications radio constituent la tâche la plus consommatrice d'énergie.Le but de cette thèse est d'analyser les différents défis et contraintes qui régissent la conception d'applications utilisant les MWNs. Ces contraintes se répartissent tout le long de la pile protocolaire. On trouve au niveau application des contraintes comme: la qualité de service, la tolérance aux pannes, le modèle de livraison de données au niveau application, etc. Au niveau réseau, on peut citer les problèmes de la dynamicité de la topologie réseau, la présence de trous, la mobilité, etc. Nos contributions dans cette thèse sont centrées sur l'optimisation de la fonction de routage en considérant les besoins de l'application et les contraintes du réseau. Premièrement, nous avons proposé un protocole de routage multi-chemin "en ligne" pour les applications orientées QoS utilisant des réseaux de capteurs multimédia. Ce protocole repose sur la construction de multiples chemins durant la transmission des paquets vers leur destination, c'est-à-dire sans découverte et construction des routes préalables. En permettant des transmissions parallèles, ce protocole améliore la transmission de bout-en-bout en maximisant la bande passante du chemin agrégé et en minimisant les délais. Ainsi, il permet de répondre aux exigences des applications orientées QoS.Deuxièmement, nous avons traité le problème du routage dans les réseaux mobiles tolérants aux délais. Nous avons commencé par étudier la connectivité intermittente entre les différents et nous avons extrait un modèle pour les contacts dans le but pouvoir prédire les future contacts entre les nœuds. En se basant sur ce modèle, nous avons proposé un protocole de routage, qui met à profit la position géographique des nœuds, leurs trajectoires, et la prédiction des futurs contacts dans le but d'améliorer les décisions de routage. Le protocole proposé permet la réduction des délais de bout-en-bout tout en utilisant d'une manière efficace les ressources limitées des nœuds que ce soit en termes de mémoire (pour le stockage des messages dans les files d'attentes) ou la puissance de calcul (pour l'exécution de l'algorithme de prédiction).Finalement, nous avons proposé un mécanisme de contrôle de la topologie avec un algorithme de routage des paquets pour les applications orientés évènement et qui utilisent des réseaux de capteurs sans fil statiques. Le contrôle de la topologie est réalisé à travers l'utilisation d'un algorithme distribué pour l'ordonnancement du cycle de service (sleep/awake). Les paramètres de l'algorithme proposé peuvent être réglés et ajustés en fonction de la taille du voisinage actif désiré (le nombre moyen de voisin actifs pour chaque nœud). Le mécanisme proposé assure un compromis entre le délai pour la notification d'un événement et la consommation d'énergie globale dans le réseau
Great research efforts have been carried out in the field of challenged multihop wireless networks (MWNs). Thanks to the evolution of the Micro-Electro-Mechanical Systems (MEMS) technology and nanotechnologies, multihop wireless networks have been the solution of choice for a plethora of problems. The main advantage of these networks is their low manufacturing cost that permits one-time application lifecycle. However, if nodes are low-costly to produce, they are also less capable in terms of radio range, bandwidth, processing power, memory, energy, etc. Thus, applications need to be carefully designed and especially the routing task because radio communication is the most energy-consuming functionality and energy is the main issue for challenged multihop wireless networks.The aim of this thesis is to analyse the different challenges that govern the design of challenged multihop wireless networks such as applications challenges in terms of quality of service (QoS), fault-tolerance, data delivery model, etc., but also networking challenges in terms of dynamic network topology, topology voids, etc. Our contributions in this thesis focus on the optimization of routing under different application requirements and network constraints. First, we propose an online multipath routing protocol for QoS-based applications using wireless multimedia sensor networks. The proposed protocol relies on the construction of multiple paths while transmitting data packets to their destination, i.e. without prior topology discovery and path establishment. This protocol achieves parallel transmissions and enhances the end-to-end transmission by maximizing path bandwidth and minimizing the delays, and thus meets the requirements of QoS-based applications. Second, we tackle the problem of routing in mobile delay-tolerant networks by studying the intermittent connectivity of nodes and deriving a contact model in order to forecast future nodes' contacts. Based upon this contact model, we propose a routing protocol that makes use of nodes' locations, nodes' trajectories, and inter-node contact prediction in order to perform forwarding decisions. The proposed routing protocol achieves low end-to-end delays while using efficiently constrained nodes' resources in terms of memory (packet queue occupancy) and processing power (forecasting algorithm). Finally, we present a topology control mechanism along a packet forwarding algorithm for event-driven applications using stationary wireless sensor networks. Topology control is achieved by using a distributed duty-cycle scheduling algorithm. Algorithm parameters can be tuned according to the desired node's awake neighbourhood size. The proposed topology control mechanism ensures trade-off between event-reporting delay and energy consumption
APA, Harvard, Vancouver, ISO und andere Zitierweisen
26

Perronnet, Florent. „Régulation coopérative des intersections : protocoles et politiques“. Thesis, Belfort-Montbéliard, 2015. http://www.theses.fr/2015BELF0259/document.

Der volle Inhalt der Quelle
Annotation:
Dans ce travail, nous exploitons le potentiel offert par les véhicules autonomes coopératifs, pour fluidifier le trafic dans une intersection isolée puis dans un réseau d’intersections. Nous proposons le protocole SVAC (Système du Véhicule Actionneur Coopératif) permettant de réguler une intersection isolée. SVAC est basé sur une distribution individuelle du droit de passage qui respecte un ordre précis donné par une séquence de passage.Pour optimiser la séquence de passage, nous définissons la politique PED (Politique d’Evacuation Distribuée) permettant d’améliorer le temps d’évacuation total de l’intersection. La création de la séquence de passage est étudiée à travers deux modélisations. Une modélisation sous forme de graphes permettant le calcul de la solution optimale en connaissant les dates d’arrivée de tous les véhicules, et une modélisation de type réseaux de Petri avec dateurs pour traiter la régulation temps-réel. Des tests réels avec des véhicules équipés ont été réalisés pour étudier la faisabilité du protocole SVAC. Des simulations mettant en jeu un trafic réaliste permettent ensuite de montrer la capacité de fluidifier le trafic par rapport à une régulation classique par feux tricolores.La régulation d’un réseau d’intersections soulève les problèmes d’interblocage et de réorientation du trafic. Nous proposons le protocole SVACRI (Système du Véhicule Actionneur Coopératif pour les Réseaux d’Intersections) qui permet d’éliminer à priori les risques d’interblocage à travers la définition de contraintes d’occupation et de réservation de l’espace et du temps. Nous étudions également la possibilité d’améliorer la fluidité du trafic à travers le routage des véhicules, en tirant avantage du protocole SVACRI. Enfin, nous généralisons le système de régulation proposé pour la synchronisation des vitesses aux intersections
The objective of this work is to use the potential offered by the wireless communication and autonomous vehicles to improve traffic flow in an isolated intersection and in a network of intersections. We define a protocol, called CVAS (Cooperative Vehicle Actuator System) for managing an isolated intersection. CVAS distributes separately the right of way to each vehicle according to a specific order determined by a computed sequence.In order to optimize the sequence, we define a DCP (Distributed Clearing Policy) to improve the total evacuation time of the intersection. The control strategy is investigated through two modeling approaches. First graph theory is used for calculating the optimal solution according to the arrival times of all vehicles, and then a timed Petri Net model is used to propose a real-time control algorithm. Tests with real vehicles are realized to study the feasibility of CVAS. Simulations of realistic traffic flows are performed to assess our algorithm and to compare it versus conventional traffic lights.Managing a network of intersections raises the issue of gridlock. We propose CVAS-NI protocol (Cooperative Vehicle actuator system for Networks of Intersections), which is an extension of CVAS protocol. This protocol prevents the deadlock in the network through occupancy and reservation constraints. With a deadlock free network we extend the study to the traffic routing policy. Finally, we generalize the proposed control system for synchronizing the vehicle velocities at intersections
APA, Harvard, Vancouver, ISO und andere Zitierweisen
27

Henriet, Julien. „Evaluation, optimisation et validation de protocoles distribués de gestion de la concurrence pour les interactions coopératives“. Besançon, 2005. http://www.theses.fr/2005BESA2023.

Der volle Inhalt der Quelle
Annotation:
Le développement fulgurant de la télé-informatique a permis l'apparition de nombreux logiciels pour le travail de groupe d'où les vocables collecticiels, applications coopératives ou collaboratives. Mais le travail collaboratif sur Internet place des contraintes en terme de concurrence d'accès aux données partagées et de communication ; n utilisateurs accédant aux mêmes données doivent en avoir la même vision, une vision cohérente. La première partie de cette thèse est un état de l'art des protocoles de communication et de gestion de la cohérence des données, des outils de communication, ainsi qu'un tour d'horizon des applications et plates-formes dédiées plus particulièrement à la télé-médecine coopérative. La deuxième partie est l'étude et l'amélioration du protocole du Pèlerin. Ce protocole pessimiste est implémenté sur notre plate-forme coopérative nommée CAliF et une version optimiste est proposée, permettant aux utilisateurs de réaliser plus rapidement leurs modifications des objets partagés. Cette partie comporte aussi une étude théorique des performances de ce nouveau protocole par rapport aux performances du Pèlerin classique. La troisième partie présente, modélise et étudie le protocole de gestion des communications de CAliF : le Caméléon. Cette étude est faite au travers de Réseaux de Pétri. La quatrième partie est une étude pratique de ces protocoles à l'aide d'une implémentation basée sur l'intergiciel SOAP et leur adéquation avec les outils de la plate-forme du projet de télé-neurologie TéNeCi. Dans le cadre de ce projet, des neurologues des hôpitaux de Besançon et de Lausanne doivent pouvoir réaliser des diagnostics de manière coopérative en temps réel
Cooperative work over Internet introduces constraints in terms of access and modification of shared objects. Users need to access the same objects concurrently in real-time. At each moment, the same image of the production area is to be shared on each connected site. The first chapter of this thesis is a state of the art of communication protocols, consistency management protocols and telemedicine platforms that allow collaborative work. The second chapter presents an new protocol for consistency management over that kind of platform. A probabilistic study of this new protocol proves and evaluates the optimization and the cost of this new protocol called the Optimistic Pilgrim. An analysis, an optimization and a validation of the Chameleon protocol dedicated to communication management over a collaborative platform is presented in the third chapter. At last, the fourth chapter evaluates the performance of these protocols through an implementation of a prototype and also presents the adequation of each protocol to each tool of the collaborative teleneurological platform of the TéNeCi project
APA, Harvard, Vancouver, ISO und andere Zitierweisen
28

Rattaz, Aurélie. „Étude de l'oxydation de la cellulose II par le NO2 : caractérisation et optimisation des paramètres expérimentaux“. Université Joseph Fourier (Grenoble ; 1971-2015), 2009. http://www.theses.fr/2009GRE10046.

Der volle Inhalt der Quelle
Annotation:
A l'état naturel, la cellulose ne peut être dégradée par les enzymes des mammifères. Une oxydation sélective des hydroxyles primaires en groupements carboxyliques rend la cellulose bio-résorbable au sein de l'organisme humain. Les produits de cette oxydation conservent un certain niveau de résistance, mécanique associé à une vitesse de résorption, variable en fonction du degré d'oxydation. Ces caractéristiques, liées à des propriétés anti-bactériennes et hémostatiques ont ouvert la voie à des applications biomédicales. Les premiers travaux sur l'oxydation de la cellulose ont été réalisés dans des conditions d'oxydation hétérogènes solide/gaz par le dioxyde d'azote NO2, entrainant une hétérogénéité des matériaux produits. Par la suite, des améliorations ont été apportées en utilisant des solvants chlorofluorés puis, plus récemment, des solvants perfluorés. Bien que ces solvants soient inertes vis-à-vis du NO2, ils soulèvent certains problèmes environnementaux. Le nouveau procédé que nous avons développé est une alternative à ces solvants, basée sur l'utilisation du CO2 supercritique (CO2SC) comme solvant de la réaction. CO2SC et le CO2 densifié en général présentent l'avantage non seulement d'être inerte vis-à-vis du NO2, mais également de ne pas laisser des résidus de solvants dans le produit final, ce qui est une condition nécessaire lorsque la production de matériaux à usage biomédical est envisagée. Dans cette étude, les différentes méthodes pour mesurer le degré d'oxydation (dosages conductimétriques, pH-métriques, spectroscopie IR, RMN CP/MAS) seront exposées ainsi que les corrélations entre ces différentes méthodes dans le cadre d'une étude cinétique de l'oxydation. Les traitements quantitatifs des spectres de RMN 13C solide et des clichés de diffraction des rayons X nous ont permis également de déterminer les modifications structurales qui ont lieu lors de la variation de la température, de la concentration en NO2, de la pression, du temps de réaction ou de l'humidité du milieu. Par ailleurs, une étude par RMN liquide à deux dimensions a permis de mettre en évidence les réactions secondaires qui ont lieu au cours de l'oxydation, et de proposer des modèles de structures formées au cours de ces réactions
Oxidized cellulose and its biomedical use are known for more than 50 years. It can be absorbed by human body, making the oxidized cellulose an attractive material for medical applications. The oxidation of cellulose can be achieved by the treatment of cellulose with several oxidizing agents, including meta-periodate, hypochlorite, dichromate and nitrogen dioxide. However, among these, the only suitable method for preparing bio-absorbable, antibacterial and hemostatic materials and maintaining the appropriate physical properties is the oxidation by nitrogen dioxide. Early works on the oxidation of cellulose to produce bio-absorbable cellulose were conducted by W. O. Kenyon et al. In these pioneering oxidation processes, the authors found that cellulose could be oxidized by using either gaseous nitrogen dioxide or a solution of nitrogen dioxide in chlorinated hydrocarbon solvents which were inert. Then, in 1968, W. H Ashton et al. Ameliorated the process for preparing oxidized cellulose in NO2 in nonaqueous solvents. These chlorinated hydrocarbons and chlorinated fluorocarbons solvents (CFCs), though suitable in cellulose oxidation process due to their stability towards NO2, are known to cause environmental problems. In an effort to oxidize cellulose and minimize the problems associated with CFCs, Boardman et al. Proposed a process for oxidizing cellulose with a solution of nitrogen dioxide in perfluorocarbons solvents. We have developed an alternative process, based on the use of supercritical carbon dioxide (SCCO2) as NO2 solvent. SCCO2 and densified CO2 in general have the advantage of not only being inert toward NO2, but also of not leaving trace of solvent residue to the final product. This feature is a critical issue when the production of medical devices is considered. In this work, the degrees of oxidation were determined by conductometric and pH-metric titration, and were in agreement with those deduced by solid state NMR and FT-IR. Quantitative treatments of X-ray diffraction and solid state NMR spectra allowed determining crystallinity index, size and orientation of oxidized cellulose crystals. The obtained results permitted to appreciate the influence of temperature, NO2 concentration, pressure and reaction time. A liquid state NMR study allowed proposing structures formed from secondary reactions
APA, Harvard, Vancouver, ISO und andere Zitierweisen
29

Lorchat, Jean. „Optimisation des communications pour les environnements mobiles embarqués“. Université Louis Pasteur (Strasbourg) (1971-2008), 2005. https://publication-theses.unistra.fr/public/theses_doctorat/2005/LORCHAT_Jean_2005.pdf.

Der volle Inhalt der Quelle
Annotation:
Les environnements mobiles embarqués sont des équipements alimentés par batterie. Ceci comprend aussi bien les ordinateurs portables au sens traditionnel, que les agendas électroniques, les téléphones portables, ou les ordinateurs de bord de voiture. Durant ce travail de thèse, nous nous sommes consacrés à l'étude des moyens de communication à la disposition de ces équipements, afin de les optimiser du point de vue de leur consommation d'énergie. Pour rester attractifs, les moyens de communication doivent être capables de fournir un service adéquat notamment pour le transport de données à fortes contraintes comme la vidéo et surtout la voix. Nous avons tout d'abord mis au point des modèles de consommation d'énergie pour différentes technologies de communication sans fil, par induction sur des mesures de consommation effectuée pour chaque interface dans différents états. Par la suite, nous nous sommes concentrés sur la série de protocoles issus de la norme IEEE 802. 11, dont le seul dispositif d'économie d'énergie proposé empêche toute communication en temps réel et ajoute une forte latence au trafic entrant. D'autre part ce protocole ne permet que des économies d'énergie sur le trafic entrant. Nous avons donc mis au point et breveté un nouveau procédé qui se rajoute au protocole existant tout en conservant la compatibilité. Ce procédé a permis de prolonger la durée de vie des batteries de 10% sur des flux à faible bande passante, ajoutant une latence assez faible pour ne pas pénaliser la qualité du flux. De plus, son efficacité augmente avec la bande passante utilisée, et il fonctionne de manière bi-directionnelle. Finalement, ayant constaté les limitations de la couche d'accès au medium de IEEE 802. 11 tant du point de vue de sa consommation que du point de vue de son équité pour les stations en concurrence pour obtenir l'accès, nous avons mis au point une nouvelle couche d'accès au medium pour les réseaux IEEE 802. 11 conservant la couche physique sous-jacente
Embedded mobile devices are battery-powered devices. This includes traditional laptops as well as PDAs, cell phones and onboard car computers. During this thesis work, we focused on studying communication protocols available to these devices, in order to optimize their energy efficiency. To remain useable, these optimized protocols must be able to support highly constrained traffic like video and voice. We did first develop some models for several wireless communications technologies, based on measurements from the field for various states of the hardware. Then we focused on the IEEE 802. 11 family of protocols, in which the only power saving mechanism is disabling realtime communications by adding a huge amount of latency on inbound traffic. In addition, this mechanism only works with inbound traffic. We thus developped and patent a new mechanism that adds on top of the existing protocol, but with backwards compatibility. This mechanism allowed to increase battery life by 10% , with so little latency that realtime communications are not impacted. This mechanism behaves the same in both ways, which makes it bidirectionnal. Eventually, based on our observations on the limits of IEEE 802. 11 medium access layer, from both energy efficiency and fairness standpoints, we developped a new medium access layer that replaces the old one from the IEEE 802. 11 protocol, but keeps the same underlying physical layer
APA, Harvard, Vancouver, ISO und andere Zitierweisen
30

Calcagni, Nicolas. „L’évaluation des prises en charge non-médicamenteuses dans le cadre d’affections chroniques. Etudes interventionnelles basées sur des Protocoles Expérimentaux à Cas Unique“. Thesis, Bordeaux, 2020. http://www.theses.fr/2020BORD0222.

Der volle Inhalt der Quelle
Annotation:
Les Interventions Non-Médicamenteuses (INM), et autres procédures qui peuvent leur être associées (Médecine Traditionnelle, Médecines Complémentaires et Alternatives), sont aujourd’hui d’une prépondérance à ne pas sous-estimer dans l’optique d’une santé intégrative. Une évaluation scientifique robuste est nécessaire afin de trier les pratiques néfastes ou inefficaces, de celles attestant de réels bénéfices. Dans ce domaine, les essais randomisés contrôlés (ERC) font loi, à un titre discutable du fait de leurs limites intrinsèques. Par le biais d’une revue systématique de littérature centrée sur les pratiques de manipulation corporelles comme soins de support proposés en oncologie, nous confirmons la difficulté qu’ont les ERCs de tirer des conclusions fermes et bien appuyées. Nous présentons alors une méthode interventionnelle différente et peu enseignée, les protocoles expérimentaux à cas unique, et proposons leur illustration à travers quatre études. Celles-ci portent sur l’évaluation de différentes interventions dans des contextes de maladies chroniques ou de problèmes de santé variables : 1) Jeu vidéo thérapeutique dans le cadre de la réadaptation physique de la maladie de Parkinson, 2) Intervention musicale en Soins Palliatifs, 3) Hypnose face aux restrictions hydriques de patients sous hémodialyse et 4) Séances de shiatsu face à la dysménorrhée primaire. Ces études rendent compte de résultats intéressants, et permettent de discuter des forces et faiblesses de cette méthode. Nous plaidons alors en sa faveur du fait de ses principes expérimentaux légitimes ainsi que son adéquation avec la pratique fondée sur la preuve. Nous profitons enfin de la faible qualité des études que nous avons menées pour dresser une liste de recommandations et d’écueils à considérer afin de les employer de façon optimale
Today, Non-Pharmacological Interventions (NPIs), and other procedures that may be associated with them (Traditional Medicine, Complementary and Alternative Medicine), are of a preponderance that should not be underestimated in the perspective of integrative health. A robust scientific evaluation is necessary to sort out the harmful or inefficient practices from those that show real benefits. In this field, randomized controlled trials (RCTs) reign supreme, but their intrinsic limitations are debatable. Through a systematic review of the literature focusing on manipulative and body-based practices as supportive care in cancer, we confirmed the difficulty of RCTs to infer a definitive decision. We then presented a different and little-taught intervention method, the single-case experimental design (SCED) and illustrated them through four studies in various health topics for the evaluation of different NPIs (Parkinson's Disease and Serious Game, Musical Intervention in Palliative Care, Hypnosis and Renal Disease, and Shiatsu and Painful Menstruations). These studies reported interesting results and provided an opportunity to discuss the strengths and weaknesses of this method. We then argued in favor of its use given its legitimate experimental principles and its adequacy with evidence-based practice. Finally, the low quality of the studies we conducted gave us an opportunity to propose a list of recommendations and pitfalls to consider when using SCED
APA, Harvard, Vancouver, ISO und andere Zitierweisen
31

Retout, Sylvie. „Optimisation de protocoles en régression non linéaire à effets mixtes : applications en pharmacocinétique de population“. Paris 11, 2003. http://www.theses.fr/2003PA11TO16.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
32

Rani, Kaddour. „Stratégies d’optimisation des protocoles en scanographie pédiatrique“. Thesis, Université de Lorraine, 2015. http://www.theses.fr/2015LORR0282/document.

Der volle Inhalt der Quelle
Annotation:
Depuis le début des années soixante-dix, le nombre de scanners par hôpitaux n’a fait qu’augmenter et leur utilisation est de plus en plus fréquente. Même si cette technique permet de donner des informations cliniques précieuses, elle a un revers qui est l’exposition du patient à des rayonnements ionisants. La sensibilité des enfants aux rayonnements est plus grande que celle des adultes, les enfants ont une espérance de vie importante et ont donc plus de risques de développer des cancers dans le futur. Il y a donc nécessité de tenter de réduire la dose au patient. Cette thèse vise donc à développer des stratégies d’optimisation sur les protocoles cliniques en utilisant des méthodes de simulation et de modélisation permettant de comprendre l’influence des paramètres des protocoles sur les indicateurs de qualité d’image et sur la dose délivrée au patient. Ce travail se divise en quatre parties: La première partie porte sur la modélisation de l’influence des paramètres des protocoles scanographiques sur deux indicateurs de qualité d’image et un indicateur de dose en utilisant la méthodologie des plans d’expériences. La seconde partie traite du développement d’un Protocole Générique Optimisé (PGO) pour la région de l’abdomen. A partir des données des modèles développés, un PGO recalculé pour cinq morphologies de patients pédiatriques et pour quatre modèles de scanners a été réalisé. L’ensemble des résultats, ont permis le développement d’un outil d’aide à l’optimisation permettant à l’utilisateur de générer un protocole optimisé en fonction du modèle de scanner et de la morphologie du patient
For the last 10-years, computed tomography (CT) procedures and their increased use have been a major source for concern in the scientific community. This concern has been the starting point for several studies aiming to optimize the dose while maintaining a diagnostic image quality. In addition, it is important to pay special attention to dose levels for children (age range considered to be from a newborn baby to a 16-y-old patient). Indeed, children are more sensitive to ionizing radiations, and they have a longer life expectancy. Optimizing the CT protocols is a very difficult process due to the complexity of the acquisition parameters, starting with the individual patient characteristics, taking into account the available CT device and the required diagnostic image quality. This PhD project is contributing to the advancement of knowledge by: (1) Developing a new approach that can minimize the number of testing CT scans examinations while developing a predictive mathematical model allowing radiologists to prospectively anticipate how changes in protocols will affect the image quality and the delivered dose for four models of CT scan. (2) Setting-up a Generic Optimized Protocol (based on the size of the phantom CATPAHN 600) for four models of CT scan. (3) Developing a methodology to adapt the GOP to five sizes of pediatric patient using Size Specific Dose Estimate calculation (SSDE). (4) Evaluating subjective and objective image quality between size-based optimised CT protocol and age-based CT protocols. (5) Developing a CT protocol optimization tool and a tutorial helping the radiologists in the process of optimization
APA, Harvard, Vancouver, ISO und andere Zitierweisen
33

Anouar, Hicham. „Conception et Optimisation de Protocoles d'Accès Multiple au Canal pour les Réseaux Ad Hoc sans Fil“. Phd thesis, Télécom ParisTech, 2006. http://pastel.archives-ouvertes.fr/pastel-00001867.

Der volle Inhalt der Quelle
Annotation:
Les objectifs principaux de cette thèse sont la conception, l'analyse et l'optimisation de protocoles nouveaux ou déjà existants de contrôle d'accès au canal dans les réseaux ad hoc, et l'étude des performances fondamentales de quelques estimateurs cohérents et non cohérents du temps d'arrivée des signaux à très large bande. Pour les réseaux simple-bond, on introduit deux nouveaux schémas de retransmissions pour les protocoles ALOHA synchronisé et IEEE802.11 DCF. Les schémas proposés sont quasi-optimale en terme de débit et de délai, et sont quasi-aveugle dans le sens qu'il nécessite juste la connaissance de la taille du réseau. Pour les réseaux multi-bonds, on améliore le mécanisme de réservation RTS/CTS pour résoudre le problème du terminal masqué que rencontre DCF. On analyse ensuite les performances du protocole résultant, et on propose un algorithme distribué basé sur la théorie des approximations stochastiques pour contrôler les retransmissions. Pour les systèmes multicanaux,on propose un nouveau protocole de type ALOHA qui fonctionne sans assignement préalable des canaux. On dérive ensuite un schéma de retransmission qui a les mêmes caractéristiques que celles du schéma obtenu pour le protocole DCF en topologie simple-bond, et ceci sans l'écoute du canal. La signalisation UWB est un exemple de technologie de transmission qui peut être employé pour fournir des systèmes multicanaux. On étudie alors les performances fondamentales de quelques estimateurs cohérents et non-cohérents du temps d'arrivée des signaux UWB. La connaissance de ces performances est nécessaire pour la synchronisation et pour l'exploitation des capacités de localisation des signaux UWB.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
34

Jung, Laura. „Optimisation de protocoles de reprogrammation de cellules somatiques humaines en cellules souches à pluripotence induite (hiPSC)“. Thesis, Strasbourg, 2013. http://www.theses.fr/2013STRAJ066.

Der volle Inhalt der Quelle
Annotation:
En 2006 et 2007, les équipes de Yamanaka et Thomson réalisent la reprogrammation de cellules somatiques murines et humaines en cellules souches pluripotentes à partir de deux cocktails de gènes : OCT4, SOX2, KLF4, cMYC (OSKM) et OCT4, NANOG, SOX2, LIN28 (ONSL). Les cellules souches à pluripotence induite générées (iPS) partagent les propriétés fondamentales des cellules souches embryonnaires : l’auto-renouvèlement, le maintien de la pluripotence et la capacité de différenciation. Ces cellules laissent entrevoir des applications considérables tant en recherche fondamentale (compréhension des mécanismes de développement et de pathologies, développement de modèles) qu’en recherche appliquée (médecine régénérative, toxicologie prédictive, criblage de médicaments). L’avantage majeur de l’utilisation des iPS réside dans leur origine non embryonnaire. Les contraintes d’ordre éthique sont écartées et une grande diversité de types cellulaires à partir de n’importe quel donneur a priori est disponible pour une reprogrammation. L’établissement d’une banque d’hiPS issus de donneurs sains ou de patients, serait d’une grande utilité pour la communauté scientifique se consacrant à l’étude des mécanismes physiopathologiques ou de développement et une source considérable pour la dérivation à des fins de thérapie cellulaire. Dans le but de mettre en place une telle banque, nous avons développé avec la société Vectalys des rétrovirus de reprogrammation contenant les cassettes polycistroniques ONSL et OSKM. Dans un premier temps, nous avons établi un protocole de reprogrammation robuste à l’aide des rétrovirus RV-ONSL. Nous avons ensuite mis en évidence la synergie entre les facteurs ONSL et OSKM, la combinaison équimolaire de RV-ONSL et RV-OSKM permettant d’atteindre 2% d’efficacité de reprogrammation. Nous avons également entrepris la reprogrammation propre par transfections d’ARNm polycistroniques ONSL et OKM mettant à profit cette incroyable synergie
In 2006 and 2007, Yamanaka and Thomson teams achieved the reprogramming of mouse and human somatic cells into pluripotent stem cells through the transfection of two cocktails of genes: OCT4, SOX2, KLF4, cMYC (OSKM) and OCT4, NANOG, SOX2, LIN28 (ONSL). The generated cells, called induced Pluripotent Stem Cells (iPSC) share the same fundamental properties of ESC : self-renewing, pluripotency maintenance and capacity of differentiation into the three germ layers and suggest the same application potential in basic research (developmental and epigenetic biology) as well as in therapy (regenerative medicine, disease modeling for drug development). One of the major advantages of iPSC lies in their non-embryonic origin. Indeed, the use of iPSC resolves the ethical constraints and offers the possibility to work with extensive cell types directly from the patient to treat. Stéphane Viville’s research team aims to develop a hiPSC bank from patient suffering from genetic or other diseases which will be available for the scientific community. We are experienced in human primary fibroblasts reprogramming especially with the use of two polycistronic cassettes: ONSL encoding Thomson’s cocktail and OSKM encoding Yamanaka’s cocktail separated with 2A peptides. Thanks to the combination of RV-ONSL and RV-OSKM retroviral vectors (developed with Vectalys) we are yielding more than 2% of reprogramming efficiency in a highly reproducible way. Indeed, we demonstrated the reprogramming synergy of ONSL and OSKM combination. We are now focusing our effort on non-integrative strategies (ie mRNA) which are more appropriate for clinical usage
APA, Harvard, Vancouver, ISO und andere Zitierweisen
35

Anouar, Hicham. „Conception et optimisation de protocoles d'accès multiple au canal pour les réseaux ad hoc sans fil /“. Paris : École nationale supérieure des télécommunications, 2006. http://catalogue.bnf.fr/ark:/12148/cb40979941q.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
36

Bonaldi, Vincent-Marie. „Tomodensitométrie spiralée et optimisation des protocoles d'injection du contraste iodé intra-veineux : études expérimentales en pathologie humaine“. Lyon 1, 1998. http://www.theses.fr/1998LYO1T072.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
37

Dos, santos Nicolas. „Optimisation de l'approche de représentativité et de transposition pour la conception neutronique de programmes expérimentaux dans les maquettes critiques“. Phd thesis, Université de Grenoble, 2013. http://tel.archives-ouvertes.fr/tel-00979526.

Der volle Inhalt der Quelle
Annotation:
Le travail mené au cours de cette thèse s'est intéressé à l'étude de la propagation des sources d'incertitudes (données nucléaires, paramètres technologiques, biais de calcul) sur les paramètres intégraux, et à la mise au point d'une méthode d'optimisation multi-critères basée sur l'approche de représentativité et de transposition, permettant de réduire cette incertitude a priori sur une grandeur ciblée (keff , distribution de puissance,...) dès la phase de conception d'un nouveau programme expérimental. La première partie de cette thèse s'est intéressée aux schémas de calcul pour la détermination des profils de sensibilité des paramètres intégraux aux données nucléaires pour différentes échelles de modélisation (cellule, assemblage et cœur), et à leur optimisation multi-filière (REL et RNR). Un schéma de calcul simplifié, basé sur les théories des perturbations standard et généralisée, permet dès à présent la propagation de ces incertitudes sur un large type de grandeur intégrale. Ces travaux ont notamment permis de vérifier la bonne représentativité des réseaux UOX et MOX mis en œuvre dans l'expérience EPICURE par rapport aux REP actuels avec chargement mixte, et de mettre en évidence l'importance de certaines données nucléaires dans l'effet de bascule des nappes de puissance dans les grands cœurs de réacteurs. La seconde partie du travail s'est focalisée sur la mise en place d'outils et de méthodes d'aide à la conception des programmes expérimentaux dans les maquettes critiques. Ces méthodes sont basées sur une approche d'optimisation multi-paramétrée de la représentativité en utilisant simultanément différentes grandeurs d'intérêt. Enfin, une étude originale a été réalisée sur la prise en compte des corrélations entre informations intégrales dans le processus de transposition. La prise en compte de ces corrélations, couplée à la méthode de transposition multi-paramétrée permet l'optimisation de nouvelles configurations expérimentales, répondant au mieux aux besoins de qualification complémentaires des outils de calcul.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
38

Dos, Santos Nicolas. „Optimisation de l'approche de représentativité et de transposition pour la conception neutronique de programmes expérimentaux dans les maquettes critiques“. Thesis, Grenoble, 2013. http://www.theses.fr/2013GRENI033/document.

Der volle Inhalt der Quelle
Annotation:
Le travail mené au cours de cette thèse s’est intéressé à l’étude de la propagation des sources d’incertitudes (données nucléaires, paramètres technologiques, biais de calcul) sur les paramètres intégraux, et à la mise au point d’une méthode d’optimisation multi-critères basée sur l’approche de représentativité et de transposition, permettant de réduire cette incertitude a priori sur une grandeur ciblée (keff , distribution de puissance,...) dès la phase de conception d’un nouveau programme expérimental. La première partie de cette thèse s’est intéressée aux schémas de calcul pour la détermination des profils de sensibilité des paramètres intégraux aux données nucléaires pour différentes échelles de modélisation (cellule, assemblage et cœur), et à leur optimisation multi-filière (REL et RNR). Un schéma de calcul simplifié, basé sur les théories des perturbations standard et généralisée, permet dès à présent la propagation de ces incertitudes sur un large type de grandeur intégrale. Ces travaux ont notamment permis de vérifier la bonne représentativité des réseaux UOX et MOX mis en œuvre dans l’expérience EPICURE par rapport aux REP actuels avec chargement mixte, et de mettre en évidence l’importance de certaines données nucléaires dans l’effet de bascule des nappes de puissance dans les grands cœurs de réacteurs. La seconde partie du travail s’est focalisée sur la mise en place d’outils et de méthodes d’aide à la conception des programmes expérimentaux dans les maquettes critiques. Ces méthodes sont basées sur une approche d’optimisation multi-paramétrée de la représentativité en utilisant simultanément différentes grandeurs d’intérêt. Enfin, une étude originale a été réalisée sur la prise en compte des corrélations entre informations intégrales dans le processus de transposition. La prise en compte de ces corrélations, couplée à la méthode de transposition multi-paramétrée permet l’optimisation de nouvelles configurations expérimentales, répondant au mieux aux besoins de qualification complémentaires des outils de calcul
The work performed during this thesis focused on uncertainty propagation (nuclear data, technological uncertainties, calculation biases,...) on integral parameters, and the development of a novel approach enabling to reduce this uncertainty a priori directly from the design phase of a new experimental program. This approach is based on a multi-parameter multi-criteria extension of representativity and transposition theories. The first part of this PhD work covers an optimization study of sensitivity and uncertainty calculation schemes to different modeling scales (cell, assembly and whole core) for LWRs and FBRs. A degraded scheme, based on standard and generalized perturbation theories, has been validated for the calculation of uncertainty propagation to various integral quantities of interest. It demonstrated the good a posteriori representativity of the EPICURE experiment for the validation of mixed UOX-MOX loadings, as the importance of some nuclear data in the power tilt phenomenon in large LWR cores. The second part of this work was devoted to methods and tools development for the optimized design of experimental programs in ZPRs. Those methods are based on multi-parameters representativity using simultaneously various quantities of interest. Finally, an original study has been conducted on the rigorous estimation of correlations between experimental programs in the transposition process. The coupling of experimental correlations and multi-parametric representativity approach enables to efficiently design new programs, able to answer additional qualification requirements on calculation tools
APA, Harvard, Vancouver, ISO und andere Zitierweisen
39

Rani, Kaddour. „Stratégies d’optimisation des protocoles en scanographie pédiatrique“. Electronic Thesis or Diss., Université de Lorraine, 2015. http://www.theses.fr/2015LORR0282.

Der volle Inhalt der Quelle
Annotation:
Depuis le début des années soixante-dix, le nombre de scanners par hôpitaux n’a fait qu’augmenter et leur utilisation est de plus en plus fréquente. Même si cette technique permet de donner des informations cliniques précieuses, elle a un revers qui est l’exposition du patient à des rayonnements ionisants. La sensibilité des enfants aux rayonnements est plus grande que celle des adultes, les enfants ont une espérance de vie importante et ont donc plus de risques de développer des cancers dans le futur. Il y a donc nécessité de tenter de réduire la dose au patient. Cette thèse vise donc à développer des stratégies d’optimisation sur les protocoles cliniques en utilisant des méthodes de simulation et de modélisation permettant de comprendre l’influence des paramètres des protocoles sur les indicateurs de qualité d’image et sur la dose délivrée au patient. Ce travail se divise en quatre parties: La première partie porte sur la modélisation de l’influence des paramètres des protocoles scanographiques sur deux indicateurs de qualité d’image et un indicateur de dose en utilisant la méthodologie des plans d’expériences. La seconde partie traite du développement d’un Protocole Générique Optimisé (PGO) pour la région de l’abdomen. A partir des données des modèles développés, un PGO recalculé pour cinq morphologies de patients pédiatriques et pour quatre modèles de scanners a été réalisé. L’ensemble des résultats, ont permis le développement d’un outil d’aide à l’optimisation permettant à l’utilisateur de générer un protocole optimisé en fonction du modèle de scanner et de la morphologie du patient
For the last 10-years, computed tomography (CT) procedures and their increased use have been a major source for concern in the scientific community. This concern has been the starting point for several studies aiming to optimize the dose while maintaining a diagnostic image quality. In addition, it is important to pay special attention to dose levels for children (age range considered to be from a newborn baby to a 16-y-old patient). Indeed, children are more sensitive to ionizing radiations, and they have a longer life expectancy. Optimizing the CT protocols is a very difficult process due to the complexity of the acquisition parameters, starting with the individual patient characteristics, taking into account the available CT device and the required diagnostic image quality. This PhD project is contributing to the advancement of knowledge by: (1) Developing a new approach that can minimize the number of testing CT scans examinations while developing a predictive mathematical model allowing radiologists to prospectively anticipate how changes in protocols will affect the image quality and the delivered dose for four models of CT scan. (2) Setting-up a Generic Optimized Protocol (based on the size of the phantom CATPAHN 600) for four models of CT scan. (3) Developing a methodology to adapt the GOP to five sizes of pediatric patient using Size Specific Dose Estimate calculation (SSDE). (4) Evaluating subjective and objective image quality between size-based optimised CT protocol and age-based CT protocols. (5) Developing a CT protocol optimization tool and a tutorial helping the radiologists in the process of optimization
APA, Harvard, Vancouver, ISO und andere Zitierweisen
40

Delpon, Grégory. „Optimisation des protocoles d'imagerie quantitative planaire pour la dosimétrie lors des études cliniques de radioimmunothérapie à l'iode 131“. Toulouse 3, 2002. http://www.theses.fr/2002TOU30165.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
41

Dahmani, Safae. „Modèles et protocoles de cohérence de données, décision et optimisation à la compilation pour des architectures massivement parallèles“. Thesis, Lorient, 2015. http://www.theses.fr/2015LORIS384/document.

Der volle Inhalt der Quelle
Annotation:
Le développement des systèmes massivement parallèles de type manycores permet d'obtenir une très grande puissance de calcul à bas coût énergétique. Cependant, l'exploitation des performances de ces architectures dépend de l'efficacité de programmation des applications. Parmi les différents paradigmes de programmation existants, celui à mémoire partagée est caractérisé par une approche intuitive dans laquelle tous les acteurs disposent d'un accès à un espace d'adressage global. Ce modèle repose sur l'efficacité du système à gérer les accès aux données partagées. Le système définit les règles de gestion des synchronisations et de stockage de données qui sont prises en charge par les protocoles de cohérence. Dans le cadre de cette thèse nous avons montré qu'il n'y a pas un unique protocole adapté aux différents contextes d'application et d'exécution. Nous considérons que le choix d'un protocole adapté doit prendre en compte les caractéristiques de l'application ainsi que des objectifs donnés pour une exécution. Nous nous intéressons dans ces travaux de thèse au choix des protocoles de cohérence en vue d'améliorer les performances du système. Nous proposons une plate-forme de compilation pour le choix et le paramétrage d'une combinaison de protocoles de cohérence pour une même application. Cette plate- forme est constituée de plusieurs briques. La principale brique développée dans cette thèse offre un moteur d'optimisation pour la configuration des protocoles de cohérence. Le moteur d'optimisation, inspiré d'une approche évolutionniste multi-objectifs (i.e. Fast Pareto Genetic Algorithm), permet d'instancier les protocoles de cohérence affectés à une application. L'avantage de cette technique est un coût de configuration faible permettant d'adopter une granularité très fine de gestion de la cohérence, qui peut aller jusqu'à associer un protocole par accès. La prise de décision sur les protocoles adaptés à une application est orientée par le mode de performance choisi par l'utilisateur (par exemple, l'économie d'énergie). Le modèle de décision proposé est basé sur la caractérisation des accès aux données partagées selon différentes métriques (par exemple: la fréquence d'accès, les motifs d'accès à la mémoire, etc). Les travaux de thèse traitent également des techniques de gestion de données dans la mémoire sur puce. Nous proposons deux protocoles basés sur le principe de coopération entre les caches répartis du système: Un protocole de glissement des données ainsi qu'un protocole inspiré du modèle physique du masse-ressort
Manycores architectures consist of hundreds to thousands of embedded cores, distributed memories and a dedicated network on a single chip. In this context, and because of the scale of the processor, providing a shared memory system has to rely on efficient hardware and software mechanisms and data consistency protocols. Numerous works explored consistency mechanisms designed for highly parallel architectures. They lead to the conclusion that there won't exist one protocol that fits to all applications and hardware contexts. In order to deal with consistency issues for this kind of architectures, we propose in this work a multi-protocol compilation toolchain, in which shared data of the application can be managed by different protocols. Protocols are chosen and configured at compile time, following the application behaviour and the targeted architecture specifications. The application behaviour is characterized with a static analysis process that helps to guide the protocols assignment to each data access. The platform offers a protocol library where each protocol is characterized by one or more parameters. The range of possible values of each parameter depends on some constraints mainly related to the targeted platform. The protocols configuration relies on a genetic-based engine that allows to instantiate each protocol with appropriate parameters values according to multiple performance objectives. In order to evaluate the quality of each proposed solution, we use different evaluation models. We first use a traffic analytical model which gives some NoC communication statistics but no timing information. Therefore, we propose two cycle- based evaluation models that provide more accurate performance metrics while taking into account contention effect due to the consistency protocols communications.We also propose a cooperative cache consistency protocol improving the cache miss rate by sliding data to less stressed neighbours. An extension of this protocol is proposed in order to dynamically define the sliding radius assigned to each data migration. This extension is based on the mass-spring physical model. Experimental validation of different contributions uses the sliding based protocols versus a four-state directory-based protocol
APA, Harvard, Vancouver, ISO und andere Zitierweisen
42

Besch, Guillaume. „Optimisation du contrôle glycémique en chirurgie cardiaque : variabilité glycémique, compliance aux protocoles de soins, et place des incrétino-mimétiques“. Thesis, Bourgogne Franche-Comté, 2017. http://www.theses.fr/2017UBFCE016/document.

Der volle Inhalt der Quelle
Annotation:
L’hyperglycémie de stress et la variabilité glycémique, consécutives à la réaction inflammatoire péri opératoire, sont associées à une morbidité et une mortalité accrues en chirurgie cardiaque. L’insulinothérapie intraveineuse administrée à l’aide de protocoles complexes, dits « dynamiques », constitue à l’heure actuelle le traitement de référence de l’hyperglycémie de stress. L’intérêt du contrôle glycémique péri-opératoire est admis par tous, sans qu’il existe de consensus véritable quant aux objectifs à atteindre, et reste très exigeant en termes de charge de soins. Dans la 1ère partie de ce travail, nous avons voulu vérifier si, 7 ans après sa mise en place, l’observance du protocole d’insulinothérapie utilisé dans notre Unité de Soins Intensifs de Chirurgie Cardiaque était conforme à celle mesurée lors de son implantation. Nous avons constaté des dérives majeures dans l’application du protocole qui ont pu être corrigées par la mise en place de mesures correctrices simples. Dans une 2ème partie du travail, nous avons cherché à évaluer si, à l’instar de la chirurgie cardiaque classique, une variabilité glycémique accrue était associée à une altération du pronostic des patients bénéficiant d’une procédure moins invasive (remplacement valvulaire aortique percutané ou TAVI). Nous avons ainsi analysé les données des patients ayant bénéficié d’un TAVI dans notre centre, et inclus dans les registres multicentriques français France et France-2. Nos résultats suggèrent une association entre une augmentation de la variabilité glycémique et un risque accru de complications cardiovasculaires majeures dans les 30 premiers jours, indépendamment de la qualité du contrôle glycémique obtenu. Enfin, dans une 3ème partie nous avons voulu savoir si exenatide, analogue de synthèse de GLP-1, permettait d’améliorer le contrôle glycémique péri opératoire en chirurgie cardiaque. Nous avons conduit un essai randomisé contrôlé de phase II/III montrant que l’administration intraveineuse (IV) d’exenatide, ne permettait pas d’améliorer la qualité du contrôle glycémique ou de réduire la variabilité glycémique par rapport à l’insuline IV, mais permettait de retarder l’administration d’insuline et de diminuer la quantité d’insuline administrée. Notre étude suggère également une diminution de la charge en soins. Du fait des données rapportées chez l’animal et dans l’infarctus du myocarde, nous avons également conduit une étude ancillaire suggérant l’absence d’effets cardioprotecteurs majeurs d’exenatide sur les lésions d’ischémie-reperfusion myocardiques, ne permettant pas d’améliorer la fonction cardiaque gauche à court et à moyen terme. L’optimisation du contrôle glycémique en chirurgie cardiaque nécessite ainsi la recherche de stratégies visant à améliorer l’observance des protocoles de soins et à réduire la variabilité glycémique. La place des analogues du GLP-1 reste à définir dans cette indication
Stress hyperglycemia and glycemic variability are associated with increased morbidity and mortality in cardiac surgery patients. Intravenous (IV) insulin therapy using complex dynamic protocols is the gold standard treatment for stress hyperglycemia. If the optimal blood glucose target range remains a matter of debate, blood glucose control using IV insulin therapy protocols has become part of the good clinical practices during the postoperative period, but implies a significant increase in nurse workload. In the 1st part of the thesis, we aimed at checking the nurse-compliance to the insulin therapy protocol used in our Cardiac Surgery Intensive Care Unit 7 years after its implementation. Major deviations have been observed and simple corrective measures have restored a high level of nurse compliance. In the 2nd part of this thesis, we aimed at assessing whether blood glucose variability could be related to poor outcome in transcatheter aortic valve implantation (TAVI) patients, as reported in more invasive cardiac surgery procedures. The analysis of data from patients who undergone TAVI in our institution and included in the multicenter France and France-2 registries suggested that increased glycemic variability is associated with a higher rate of major adverse events occurring between the 3rd and the 30th day after TAVI, regardless of hyperglycemia. In the 3rd part if this thesis, we conducted a randomized controlled phase II/III trial to investigate the clinical effectiveness of IV exenatide in perioperative blood glucose control after coronary artery bypass graft surgery. Intravenous exenatide failed to improve blood glucose control and to decrease glycemic variability, but allowed to delay the start in insulin infusion and to lower the insulin dose required. Moreover, IV exenatide could allow a significant decrease in nurse workload. The ancillary analysis of this trial suggested that IV exenatide did neither provide cardio protective effect against myocardial ischemia-reperfusion injuries nor improve the left ventricular function by using IV exenatide. Strategies aiming at improving nurse compliance to insulin therapy protocols and at reducing blood glucose variability could be suitable to improve blood glucose control in cardiac surgery patients. The use of the analogues of GLP-1 in cardiac surgery patients needs to be investigated otherwise
APA, Harvard, Vancouver, ISO und andere Zitierweisen
43

Blanc, de Lanaute Nicolas. „Développement et optimisation de méthodes de mesures neutroniques par chambre à fission auprès de réacteurs expérimentaux. Maîtrise , traitement et réduction des incertitudes“. Thesis, Clermont-Ferrand 2, 2012. http://www.theses.fr/2012CLF22217.

Der volle Inhalt der Quelle
Annotation:
Le rôle de la mesure nucléaire, et en particulier celui de la détection neutronique est fondamental dans la recherche et l’industrie nucléaire. Les neutrons fournissent des informations capitales sur le comportement d’un milieu expérimental de type réacteur nucléaire. Leur mesure permet, entre autres, d’assurer l’exploitation « au quotidien » des installations nucléaires de base par le respect des critères de sûreté, de qualifier les codes de calcul utilisés notamment pour la conception des coeurs du futur (comme les réacteurs de génération 4 ou le Réacteur Jules Horowitz) et de faire des progrès en recherche fondamentale, notamment en améliorant les bibliothèque de données nucléaires. Le résultat de chaque mesure est affecté d’une incertitude dont les contributions sont parfois complexes mais dont la prise en compte est systématiquement nécessaire pour leur interprétation. Leur réduction est un des challenges majeurs du CEA.Les neutrons sont des particules non chargées dont la détection par chambre d’ionisation passe nécessairement par une réaction de conversion. Le capteur de type « chambre à fission », utilise la réaction de fission induite. La maîtrise et la réduction des incertitudes affectées aux mesures utilisant ce détecteur constituent la thématique de cette thèse qui s’est déroulée au sein du Laboratoire des Programmes Expérimentaux (LPE) du Service de Physique Expérimentale (SPEx) du CEA Cadarache. Ils se divisent en quatre thématiques :• la première consiste en un état de l’art de la mesure neutronique par chambre à fission en réacteur maquette. Elle fait le point sur les techniques de mesure, la technologie et les processus physiques mis à profit lors de la détection des neutrons,• la deuxième thématique porte sur l’optimisation de deux paramètres intrinsèques du détecteur :o l’épaisseur du dépôt de matière fissile. Les résultats obtenus par simulation ont permis de mieux appréhender l’impact de ce paramètre sur les mesures et d’optimiser la conception des détecteurs futurs,o la pression et la nature du gaz de remplissage. Ces travaux ont permis d’étudier expérimentalement l’impact de cette grandeur sur le comportement de la chambre à fission et d’en optimiser le remplissage. De nouveaux standards ont été découverts et mis en place, adaptés au matériel utilisé aujourd’hui, qui permettent d’une part une division par deux des incertitudes liés aux variations de la pression de remplissage et une utilisation plus souple des détecteurs d’autre part,• la troisième thématique s’intéresse à l’amélioration de l’électronique de mesure et des post-traitements utilisés. Trois chaînes d’acquisition innovantes ont été testées de manière à couvrir les grandes lignes du panorama actuel de l’électronique de mesure. Il en résulte des recommandations dorénavant prises en compte pour l’équipement des maquettes critiques du SPEx. Ces travaux de thèses ont également été l’occasion d’introduire une méthodologie de correction de temps mort innovante et d’en illustrer l’impact positif (division par quatre des écarts entre la mesure et le résultat attendu) sur des mesures réalisées sur la maquette MASURCA,• la quatrième et dernière thématique s’intéresse à l’optimisation des mesures d’indice de spectre par chambre à fission. Chaque paramètre influençant la mesure voit son impact quantifié et sa détermination optimisée, un soin tout particulier étant apporté aux mesures d’étalonnage des capteurs. Il en résulte des améliorations majeures,notamment sur l’indice de spectre « fission 238U / fission 235U » mesuré au centre du coeur de MINERVE, caractérisé par une réduction des écarts « calcul / expérience »(passant de 35.70% à 0.17% dans le meilleur des cas) et une diminution des incertitudes de mesure (passant de 15.7% à 5.6%). Ces résultats ont également permis d’expliquer et de réduire drastiquement les écarts anormaux entre le calcul et l’expérience constatés lors de mesures réalisées en 2004 sur le réacteur MINERVE. (...)
Nuclear measurement, and in particular neutronic measurement, plays a key role in nuclearresearch and industry. Neutrons, when detected, are able to provide capital pieces ofinformation on the behavior of, for example, a nuclear reactor core. This allows, amongothers things, a safe operating of the reactor, qualifying calculation tools used for theconception of future reactors (such as the JHR or the 4th generation reactors) and makingprogress in fundamental research by improving nuclear data libraries. The result of eachmeasurement is affected by an uncertainty which depends on many factors. Its estimation isa necessity and its reduction is one of the major challenges taken up to by the CEA.Neutrons are not charged particles and are therefore unable to directly ionize the gas of agas filled detector; therefore their detection using this kind of measurement tool requires aconversion reaction, which is, in the case of the fission chamber detector, the induced fissionreaction. The reduction and mastery of the uncertainties affecting the fission chambersmeasurements are the core of the thesis subject. This work was achieved within theExperimental Program Laboratory (LPE) of the Experimental Physics Section (SPEx) at CEACadarache. It is divided into four parts:· the first one consists in a state of the art of fission chambers measurements within theframework of the zero-power experimental reactors. It compiles knowledge aboutmeasurement techniques, technologies and physics used for neutron detection.· the second part study the optimization of two of the key parameters defining thedesign of a fission chamber:o the fissile deposit thickness. The results, obtained thanks to simulation,allowed a better understanding of this parameter’s impact on measurementswhich lead to an improvement of the future detectors design.o the filling gas type and pressure. A deep experimental parametric study wascarried out in the MINERVE facility which enables understanding the impact ofboth filling gas characteristics on results. New filling standards have beendiscovered and are now taken into account when designing new detectors.Those standards allow dividing by two the measurement uncertainties due topressure variations and enable using fission chambers in more variousexperimental setups.· the third part of this works is focused on the improvement of the electronic equipmentand post-treatments used for fission chambers measurements. Three innovativeacquisition devices were chosen for testing in MINERVE. The results obtained enablegiving a set of short term and long term recommendations considering the update ofthe instrumentation used in the SPEx zero power reactors. In addition, a new deadtime correction method was developed during the thesis and is presented in this part.Its positive impact on rod-drop measurement is given for illustration as the gapbetween experimental results and expected values is divided by four thanks to thisinnovative correction method.· the last part is about the optimization of spectral indices measurement. The mostimportant parameters regarding spectral indices assessment are studied, their impacton spectral index is quantified and their respective acquisition methods are optimized.The study was mainly concentrated on the calibration data acquisition. This work ledto significant improvement, most notably concerning the « 238U fission / 235U fission»spectral index measured in the MINERVE core. The gap between calculation andexperimental results has been greatly reduced (from 35.70% to 0.17%) and theassociated uncertainty has also been diminished (from 15.7% to 5.6%). Those resultsalso allowed explaining abnormal gaps between calculation and experimentationobserved in measurement performed in the MINERVE facility in 2004. (...)
APA, Harvard, Vancouver, ISO und andere Zitierweisen
44

Incandella, Olga. „Définition de protocoles rationnels d'identification de lois de comportement élastoplastiques. : Application à la simulation éléments finis d'opérations industrielles d'emboutissage“. Chambéry, 2006. http://www.theses.fr/2006CHAMS021.

Der volle Inhalt der Quelle
Annotation:
L'objectif de la thèse effectuée dans le cadre du projet européen "Intelligent system for NET shape FORming of Sheet MEtal Product" est la recherche de procédures optimisées pour la mise au point de simulations numériques d'opérations industrielles d'emboutissage. Ce travail a pour but d'apporter des réponses efficaces, applicables au sein d'une entreprise en regard de la mauvaise perception de ce type de procédé dans le milieu industriel. La procédure met en avant le rôle clé de l'identification des lois de comportement élastoplastiques définissant le comportement de la tôle pendant la simulation. Dans un premier temps on s'intéresse à l'identification classique à partir d'essais de traction utilisés habituellement à cet effet. Différentes techniques et protocoles sont alors retenus pour tirer le meilleur parti de ce type d'essais en utilisant notamment les techniques expérimentales d'analyse d'images. Ces choix conduisent à une amélioration notable des résultats concernant l'effet du retour élastique, l'état de contraintes résiduelles et la prédiction de la localisation de la déformation. Cependant les limites de ce type d'identification réalisé sur des essais homogènes apparaissent clairement. C'est pourquoi, nous proposons une méthode originale d'identification des paramètres de la loi de comportement à partir d'essais hétérogènes voisins du cas réel de mise en forme. L'optimisation des coefficients de la loi de comportement est alors fondée sur l'utilisation de réseaux de neurones. Les avantages de cette méthode sont démontrés sur un exemple d'emboutissage de pièces axisymétriques à flan bloqué
The objective of the thesis carried out within the framework of the European project called “Intelligent system for NET shape FORming of Sheet MEtal Product" is the research of optimized procedures for the adjustment of numeric simulations for industrial operations of stamping. The procedure puts forward the key role of the identification of the elastoplastic behaviour laws for metal sheet to assure a reliable simulation. For this purpose, the traditional identifications of the constitutive laws from tensile tests are initially used. Various techniques and protocols are retained to take the best advantages from this kind of tests, in particular using the experimental technique of optical analysis of deformation. These choices lead to a notable improvement of the numeric results concerning the effect of the elastic spring-back, the state of residual stresses and the prediction of the strain localisation. However the limits of this kind of identification realized from homogeneous tests appear clearly. This is the reason why we propose an original method of identification of the parameters of the behaviour law from heterogeneous tests close to the real case of sheet metal forming. The optimisation of the coefficients of the mechanical constitutive law is founded on the use of artificial neural networks. The advantages of this method are shown on an example of stamping of axisymmetric parts with blocked blank
APA, Harvard, Vancouver, ISO und andere Zitierweisen
45

Fortuny, Cédric. „Estimation du trafic, planification et optimisation des ressources pour l'ingénierie des réseaux IP/MPLS“. Toulouse 3, 2008. http://thesesups.ups-tlse.fr/1198/.

Der volle Inhalt der Quelle
Annotation:
Les réseaux IP sont devenus des systèmes réellement critiques, l'interruption du service fourni par le réseau ou même une dégradation significative de la qualité de service étant de moins en moins tolérables. Une nouvelle approche de l'ingénierie des réseaux devient des lors nécessaire, pour concevoir, planifier et contrôler les architectures IP sur la base des informations de supervision. Nos contributions a cette nouvelle approche portent sur l'estimation du trafic a partir des mesures de charges SNMP, sur l'optimisation des métriques de routage IP et sur le dimensionnement d'infrastructures. Les modèles et algorithmes développés prennent en compte de nombreuses contraintes technologiques dans le but de fournir des solutions opérationnelles
IP networks have become critical systems in the last decade: service interruptions or even significant service degradations are less and less tolerable. Therefore, a new network engineering approach is required to help design, plan and control IP architectures on the basis of supervision information. Our contributions to this new approach are related to traffic matrix estimation from SNMP link loads, to IP routing weights optimization and to network dimensioning. The models and algorithms proposed in this thesis take into account many technological constraints in order to provide operational solutions
APA, Harvard, Vancouver, ISO und andere Zitierweisen
46

Sadki, Abdellah. „Planification des chimiothérapies ambulatoires avec la prise en compte des protocoles de soins et des incertitudes“. Phd thesis, Ecole Nationale Supérieure des Mines de Saint-Etienne, 2012. http://tel.archives-ouvertes.fr/tel-00732983.

Der volle Inhalt der Quelle
Annotation:
Les travaux de cette thèse sont les fruits de collaboration depuis 2008 entre l'ICL et le Centre Ingénierie et Santé (CIS) de l'Ecole des Mines de Saint Etienne. CIS et ICL sont tous deux membres de l'Institut Fédératif de Recherche en Science, Ingénierie et Santé (IFRESIS) et participent tous deux aux travaux du Cancéropôle Lyon Auvergne Rhône-Alpes (CLARA) dont Franck Chauvin animait l'axe IV sur Epidémiologie, SHS, Information du Patient et Organisation des Soins. Cette thèse a été initiée avec la volonté de développer une recherche originale sur l'optimisation de la production de soins en cancérologie.Nous nous intéressons à différentes problématiques de la gestion de soins des patients dans un hôpital de jour en cancérologie. Nous visons à équilibrer au mieux les besoins journaliers en lits tout en prenant en compte l'adhérence aux protocoles de soins, les contraintes des oncologues et les aléas des flux de patients. Pour un hôpital de jour en oncologie, nous avons identifié et étudié les décisions suivantes : I. Le planning médical une fois par an afin de déterminer les périodes de travail des oncologues dans une semaine. Nous avons proposé une formulation originale sous forme d'un modèle de programmation linéaire en nombres mixtes (MIP) et une approche en 3-étapes. II. L'affectation des nouveaux patients qui détermine le jour de la chimiothérapie pour chaque patient entrant. Nous avons présenté trois stratégies de planification et nous avons décrit un algorithme de simulation pour évaluer ces stratégies de planification. Les stratégies de planification proposées exploitent les informations contenues dans les protocoles de soins des patients et utilisent l'optimisation Monte Carlo III. La planification des rendez-vous. Nous avons présenté deux méthodes pour la résolution de ce problème : une approche basée sur la relaxation Lagrangienne et une heuristique basée sur une optimisation par recherche localeIV. La planification des jours fériés : permet de remédier au problème des semaines comportant des jours fériés. Nous avons développé un modèle en programmation linéaire en nombres mixtes permettant de répartir rapidement la charge du jour férié sur les jours en amont et en aval sans trop dégradé l'efficacité du traitement, ni surcharger le travail de l'HDJ.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
47

Bertrand, Sébastien. „Optimisation de réseaux multiprotocoles avec encapsulation“. Clermont-Ferrand 2, 2004. http://www.theses.fr/2004CLF21486.

Der volle Inhalt der Quelle
Annotation:
Nous étudions le problème de la conception de réseaux de télécommunications multiprotocoles tenant compte du phénomène d'encaspulation des données. Connaissant la structure en couches d'un réseau multiprotocoles et un ensemble de demandes devant être acheminées sur ce réseau, le problème de la conception de réseau consiste à choisir la capacité de chaque liaison parmi un ensemble de valeurs discrètes de telle sorte que le coût global du réseau soit le plus faible possible, tout en s'assurant que les demandes sont satisfaites. Nous scindons ce problème en deux sous-problèmes inter-dépendants : le problème de la réalisabilité d'un ensemble de capacités en regard d'un multiflot, qui peut être formulé comme un programe linéaire en variables inconnues, et le problème du dimensionnement de ces capacités, formulé comme un programme linéaire en variables bolléennes. Dans le cadre des réseaux multiprotocoles, le problème de la réalisabilité d'un ensemble de capacités en regard d'un multiflot fait intervenir la notion d'en-tête liée au phénomène d'encaspulation, ce qui rend sa résolution difficile. Nous introduisons dans cette thèse un modèle de multiflot dit non conservatif, et définissons la notion de pile de chemins. Nous étudions la complexité du problème de la recherche de piles de chemins comportant un nombre minimum de changements de protocoles dans les réseaux en couches. Nous donnons aussi un ensemble d'heuritiques pour la génération de piles de chemins de coût réduit négatif afin de résoudre le problème de réalisibilité. Le problème de dimensionnement des capacités peut être entièrement résolu de manière itérative en employant la classe des inégalités métriques. Par ailleurs, la formulation de ce problème faisant intervenir uniquement des variables booléennes, nous faisons appel à la technique dite lift-and-project due aux travaux de Lovasz et Schrijver sur le cône des matrices semi-définies positives, ainsi qu'aux travaux de Balas, Ceria, Cornuejols sur le rôle des contraintes disjonctives pour la résolution de programmes en variables booléennes. Nous étudions chacune de ces approches et donnons deux algorithmes de coupes polyédrales basés sur l'utilisation des opérateurs de projection définis par Lovasz et Schrijver d'une part, et Balas, Ceria, Cornuejols. Enfin nous donnons une méthode permettant de créer plusieurs relaxations semi-définies d'un programme linéaire en variables booléennes général, et nous appliquons une méthode au problème de dimensionnement des capacités. Des tests numériques permettent de dire que les solutions obtenues par cette méthode sont meilleures que celles obtenues par la simple relaxation linéaire de ce problème
APA, Harvard, Vancouver, ISO und andere Zitierweisen
48

Lampin, Quentin. „Réseaux urbains de capteurs sans-fil : Applications, caractérisation et protocoles“. Thesis, Lyon, INSA, 2014. http://www.theses.fr/2014ISAL0001/document.

Der volle Inhalt der Quelle
Annotation:
Les réseaux de capteurs sans-fil sont composés de dispositifs électroniques conçus pour mesurer une grandeur physique de l’environnement dans lequel ils sont déployés et pour acheminer ces mesures à un système d’information. Dans nos travaux, nous étudions les architectures de réseau et les protocoles de communication associés afin de déterminer les configurations adéquates à un scénario de réseau de capteurs pour la Ville Intelligente. Après avoir recensé les applications et leurs exigences de Qualité de Service attendue, nous avons construit des modèles analytiques permettant de comparer les différentes familles de protocoles MAC en terme de taux de livraison et de consommation d’énergie. Ces travaux permettent ainsi de motiver le choix d’un protocole synchrone ou asynchrone, à contention ou à accès direct, en fonction du scénario applicatif et du déploiement de réseau considéré : longue portée ou multi-sauts. Sur la base des résultats de cette étude, nous proposons ensuite un ensemble d’optimisation des protocoles de communication permettant d’améliorer la Qualité de Service et la dépense énergétique des compteurs. Nous proposons une méthode d’accès au médium de communication permettant l’allocation de plusieurs instants de transmission en une phase unique de tournoi. Cette optimisation vise à réduire le pôle de consommation majoritaire des réseaux multi-sauts, tel qu’identifié dans l’étude précédente. Le protocole résultant, CT-MAC, résout l’allocation de plusieurs instants de transmission en une unique phase de compétition et de manière distribuée. CT-MAC réduit ainsi la consommation d’énergie de l’arbitrage du médium. Nous proposons ensuite un mécanisme de relayage adaptatif pour l’architecture de réseau longue-portée. Le protocole, nommé SARI-MAC, est conçu de manière à pallier aux ‘trous’ de couverture que présentent les systèmes radio longue-portée lorsqu’ils sont déployés dans un habitat urbain dense. Pour cela, SARI-MAC propose d’exploiter certains nœuds du réseau, choisis pour leurs ressources en énergie, en tant que relais pour leurs voisins dont le bilan radio est insuffisant pour respecter les exigences de Qualité de Service de l’application. SARI-MAC est un protocole MAC asynchrone, initié récepteur dont les paramètres s’adaptent automatiquement aux conditions de trafic et aux contraintes de cycle d’activité imposées par la durée de vie souhaitée des nœuds capteurs et par la législation. Finalement, nous proposons un schéma de routage opportuniste appelé QOR. QOR est un protocole de routage qui tire profit des liens radio longue portée, opportunistes afin d’améliorer la fiabilité et la latence des transmissions de données dans un réseau de collecte. Pour cela, QOR propose une structure de routage combinée à un schéma d’adressage permettant d’identifier un ensemble de nœuds relais entre une source et la passerelle de collecte
Wireless Sensors are small electronic devices made for measuring physical properties of their environment and communicating them wirelessly to an information system. In this thesis, we study existing network architectures and to devise the best-suited configuration for typical urban wireless Sensor Network use-cases. To that effect, we provide comprehensive analytical models to compare the different families of MAC protocols in terms of Delivery Rate and Energy Consumption, e.g. synchronous vs asynchronous, contention-based vs direct access etc. Headlines results a mathematical framework to devise the least energy-cost contention algorithm for a given Delivery Rate and closed-form expressions of the Energy Consumption and Delivery Rate for popular access control protocols. These results are then synthesised in a comparison study of the two prevailing urban sensors network architectures, i.e. long-range and multihop. We show that long-range sensor networks are best-suited for low-traffic and sparser network topologies while higher traffic loads and denser network topologies demand switching to a multihop network operating a synchronous MAC protocol on higher bitrate radios. Based on the analysis of the architectures best suited for each use-case scenario, i.e. low traffic loads/sparse network and high traffic loads/dense network, we identify suitable optimisations to improve the QoS performance and energy efficiency of said architectures. First, we improve on the energy efficiency of the arbitration of the medium access by defining a cascading tournament contention algorithm. This protocol, CT-MAC, resolves multiple timeslots allocation in a single, energy efficient contention tournament. Second, we propose an adaptive relaying scheme for the long-range network architecture named SARI-MAC. This scheme is an attempt to cope with coverage holes that occurs when using long-range in a dense urban habitat by letting sensor nodes relay communications of nodes whose link budgets are incompatible with the QoS requirements of the network. To that effect, we propose a receiver-initiated MAC protocol that self-adapts to the traffic condition so that the duty-cycle of relayers is kept as low as possible with respect to the load of frames to relay. Finally, we propose an opportunistic relaying scheme named QOR. QOR is a routing protocol that exploits long-range, opportunistic radio links to provide faster and more reliable transmissions. To that effect, QOR proposes a joint routing structure and addressing scheme that allows identifying a limited set of nodes than can become opportunistic relayers between a source sensor and the sink. Those nodes then follow an original cascaded acknowledgement mechanism that brings reliable acknowledgment and ensures a replication-free forwarding of the data frames
APA, Harvard, Vancouver, ISO und andere Zitierweisen
49

Jaubert, Jean. „Etudes de quelques interactions entre espèces et facteurs de l'environnement (lumière, température et oxygène dissous) mesures in situ en milieu récifal : conception et réalisation d'instruments de mesure et protocoles expérimentaux“. Nice, 1987. http://www.theses.fr/1987NICE4110.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
50

Bhatia, Sapan. „Optimisations de compilateur optimistes pour les systèmes réseaux“. Bordeaux 1, 2006. http://www.theses.fr/2006BOR13169.

Der volle Inhalt der Quelle
Annotation:
Cette thèse présente un ensemble de techniques qui permettent l'optimisation des performances des systèmes réseaux modernes. Ces techniques reposent sur l'analyse et la transformation des programmes impliqués dans la mise en oeuvre des protocoles réseaux. La première de ces techniques fait appel à la spécialisation de programmes pour optimiser des piles de protocoles réseaux. La deuxième, que nous avons nommée spécialisation distante, permet à des systèmes embarqués limités en ressources de bénéficier de la pécialisation de programmes en déportant à travers le réseaux les opérations de spécialistion à une machine distante moins limitée. La troisième propose un nouvel allocateur de mémoire qui optimise l'utilisation des chaches matériels faite par un serveur réseau. Enfin, la quatrième utilise l'analyse de programmes statiques pour intégrer l'allocateur proposé dans un serveur réseau existant. On appelle ces techniques optimisations compilateur parce qu'elles opèrent sur le flot des données et du contrôle dans des programmes en les transformant pour qu'ils fonctionnent plus efficacement.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
Wir bieten Rabatte auf alle Premium-Pläne für Autoren, deren Werke in thematische Literatursammlungen aufgenommen wurden. Kontaktieren Sie uns, um einen einzigartigen Promo-Code zu erhalten!

Zur Bibliographie