Tesi sul tema "Plan de données programmable"

Segui questo link per vedere altri tipi di pubblicazioni sul tema: Plan de données programmable.

Cita una fonte nei formati APA, MLA, Chicago, Harvard e in molti altri stili

Scegli il tipo di fonte:

Vedi i top-41 saggi (tesi di laurea o di dottorato) per l'attività di ricerca sul tema "Plan de données programmable".

Accanto a ogni fonte nell'elenco di riferimenti c'è un pulsante "Aggiungi alla bibliografia". Premilo e genereremo automaticamente la citazione bibliografica dell'opera scelta nello stile citazionale di cui hai bisogno: APA, MLA, Harvard, Chicago, Vancouver ecc.

Puoi anche scaricare il testo completo della pubblicazione scientifica nel formato .pdf e leggere online l'abstract (il sommario) dell'opera se è presente nei metadati.

Vedi le tesi di molte aree scientifiche e compila una bibliografia corretta.

1

Jose, Matthews. "In-network real-value computation on programmable switches". Electronic Thesis or Diss., Université de Lorraine, 2023. http://docnum.univ-lorraine.fr/ulprive/DDOC_T_2023_0057_JOSE.pdf.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
L'arrivée des switchs ASIC programmables de nouvelle génération a obligé la communauté des réseaux à repenser le fonctionnement des réseaux. La possibilité de reconfigurer la logique de traitement des paquets par le plan de transfert de données sans modifier le matériel sous-jacent et l'introduction de primitives de mémoire à état ont suscité un regain d'intérêt pour les cas d'utilisation qui peuvent être déchargés sur le plan de transfert de données. Cependant, les commutateurs programmables ne prennent toujours pas en charge les calculs à valeur réelle et obligent à utiliser des serveurs externes ou des boîtes intermédiaires pour effectuer ces opérations. Afin de réaliser pleinement la capacité de traitement en réseau, nos contributions proposent d'ajouter le support des opérations à valeur réelle sur le commutateur. Pour ce faire, nous utilisons des tables de consultation mathématiques pour construire des pipelines permettant de calculer des fonctions à valeur réelle. Nous commençons par développer des procédures pour calculer des opérations élémentaires de base, en gardant à l'esprit les contraintes et les limitations d'un commutateur programmable. Ces procédures sont une combinaison de tables de consultation et d'opérations natives fournies par le commutateur. Une fonction donnée est décomposée en une représentation qui met en évidence les opérations élémentaires qui la composent et les dépendances entre elles. Un pipeline est construit en assemblant les procédures prédéfinies pour chaque opération élémentaire sur la base de la représentation. Plusieurs techniques de réduction et d'optimisation des ressources sont également appliquées avant que le pipeline final ne soit déployé sur le commutateur. Ce processus a été étendu à plusieurs commutateurs du réseau, ce qui permet de déployer des fonctions encore plus importantes sur le commutateur. Le projet a été le premier à étudier un cadre générique pour la construction de pipelines pour le calcul à valeur réelle. Notre prototype sur le commutateur Barefoot Tofino montre l'efficacité de notre système pour le calcul en réseau de différents types d'opérations et son application pour les modèles de régression logistique en réseau utilisés pour les problèmes de classification et les fonctions de séries chronologiques comme ARIMA pour la détection des DDoS. Nos évaluations montrent qu'il est possible d'atteindre une erreur relative inférieure à 5%, voire 1%, avec une faible quantité de ressources, ce qui en fait une approche viable pour prendre en charge des fonctions et des algorithmes complexes
The advent of new-generation programmable switch ASICs have compelled the network community to rethink operation of networks. The ability to reconfigure the dataplane packet processing logic without changing the underlying hardware and the introduction of stateful memory primitives have resulted in a surge in interest and use-cases that can be offloaded onto the dataplane. However, programmable switches still do not support real-value computation and forcing the use of external servers or middle boxes to perform these operations. To fully realize the capability of in-network processing, our contributions propose to add support for real-value operations on the switch. This is achieved by leveraging mathematical lookup tables for building pipelines to compute a real-value functions. We start by developing procedures for computing basic elementary operations, keeping in mind the constraints and limitations of a programmable switch. These procedures are a combination of lookup tables and native operations provided by the switch. A given function is decomposed into a representation that highlights its constituent elementary operations and the dependencies between them. A pipeline is constructed by stitching together the predefined procedures for each elementary operation based on the representation. Several, reduction and resource optimization techniques are also applied before the final pipeline is deployed onto the switch. This process was further expanded to scale multiple switches in the network, enabling even larger functions to be deployed on the switch. The project was the first to investigate a generic framework for building pipelines for real-value computation. Our prototype on Barefoot Tofino switch shows the efficiency of our system for in-network computation of different types of operations and its application for in-network logistic regression models used for classification problems and time series functions like ARIMA for DDoS detection. Our evaluations show that reaching a relative error below 5% or even 1% is possible with a low amount of resources making it a viable approach to support complex functions and algorithms
2

Soni, Hardik. "Une approche modulaire avec délégation de contrôle pour les réseaux programmables". Thesis, Université Côte d'Azur (ComUE), 2018. http://www.theses.fr/2018AZUR4026/document.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Les opérateurs de réseau sont confrontés à de grands défis en termes de coût et de complexité pour intégrer les nouvelles technologies de communication (e.g., 4G, 5G, fibre optique) et pour répondre aux demandes croissantes des nouveaux services réseau adaptés aux nouveaux cas d’utilisation. La "softwarization" des opérations réseau à l'aide des paradigmes SDN (Software Defined Networking) et NFV (Network Function Virtualization) est en mesure de simplifier le contrôle et la gestion des réseaux et de fournir des services réseau de manière efficace. Les réseaux programmables SDN permettent de dissocier le plan de contrôle du plan de données et de centraliser le plan de contrôle pour simplifier la gestion du réseau et obtenir une vision globale. Cependant, ceci amène des problèmes de passage à l'échelle difficiles à résoudre. Par ailleurs, en dissociant la partie matérielle de la partie logicielle des routeurs, NFV permet d'implanter de manière flexible et à moindre coût toutes sortes de fonctions réseau. La contrepartie est une dégradation des performances due à l'implantation en logiciel des fonctions réseau qui sont déportées des routeurs. Pour aborder les problèmes de passage à l'échelle et de performance des paradigmes SDN/NFV, nous proposons dans la première partie de la thèse, une architecture modulaire de gestion et de contrôle du réseau, dans laquelle le contrôleur SDN délègue une partie de ses responsabilités à des fonctions réseau spécifiques qui sont instanciées à des emplacements stratégiques de l'infrastructure réseau. Nous avons choisi un exemple d'application de streaming vidéo en direct (comme Facebook Live ou Periscope) utilisant un service de multicast IP car il illustre bien les problèmes de passage à l'échelle des réseaux programmables. Notre solution exploite les avantages du paradigme NFV pour résoudre le problème de scalabilité du plan de contrôle centralisé SDN en délégant le traitement du trafic de contrôle propre au service multicast à des fonctions réseau spécifiques (appelées MNF) implantées en logiciel et exécutées dans un environnement NFV localisé à la périphérie du réseau. Notre approche fournit une gestion flexible des groupes multicast qui passe à l'échelle. De plus, elle permet de bénéficier de la vision globale du contrôle centralisé apportée par SDN pour déployer de nouvelles politiques d'ingénierie du trafic comme L2BM (Lazy Load Balance Multicast) dans les réseaux de fournisseurs d’accès à Internet (FAI) programmables. L'évaluation de cette approche est délicate à mettre en œuvre car la communauté de recherche ne dispose pas facilement d'infrastructure SDN à grande échelle réaliste. Pour évaluer notre solution, nous avons élaboré l'outil DiG qui permet d'exploiter l'énorme quantité de ressources disponibles dans une grille de calcul, pour émuler facilement de tels environnements. DiG prend en compte les contraintes physiques (mémoire, CPU, capacité des liens) pour fournir un environnement d'évaluation réaliste et paramétrable avec des conditions contrôlées. La solution que nous proposons délègue le contrôle et la gestion du réseau concernant le service de multicast aux fonctions spécifiques MNF exécutées dans un environnement NFV. Idéalement, pour davantage d'efficacité, toutes ces fonctions spécifiques devraient être implantées directement au sein des routeurs avec du hardware programmable mais cela nécessite que ces nouveaux routeurs puissent exécuter de manière indépendante plusieurs fonctions réseau à la fois. Le langage de programmation P4 est une technologie prometteuse pour programmer le traitement des paquets de données dans les routeurs programmables (hardware et logiciels)
Network operators are facing great challenges in terms of cost and complexity in order to incorporate new communication technologies (e.g., 4G, 5G, fiber) and to keep up with increasing demands of new network services to address emerging use cases. Softwarizing the network operations using SoftwareDefined Networking (SDN) and Network Function Virtualization (NFV) paradigms can simplify control and management of networks and provide network services in a cost effective way. SDN decouples control and data traffic processing in the network and centralizes the control traffic processing to simplify the network management, but may face scalability issues due to the same reasons. NFV decouples hardware and software of network appliances for cost effective operations of network services, but faces performance degradation issues due to data traffic processing in software. In order to address scalability and performance issues in SDN/NFV, we propose in the first part of the thesis, a modular network control and management architecture, in which the SDN controller delegates part of its responsibilities to specific network functions instantiated in network devices at strategic locations in the infrastructure. We have chosen to focus on a modern application using an IP multicast service for live video streaming applications (e.g., Facebook Live or Periscope) that illustrates well the SDN scalability problems. Our solution exploits benefits of the NFV paradigm to address the scalability issue of centralized SDN control plane by offloading processing of multicast service specific control traffic to Multicast Network Functions (MNFs) implemented in software and executed in NFV environment at the edge of the network. Our approach provides smart, flexible and scalable group management and leverages centralized control of SDN for Lazy Load Balance Multicast (L2BM) traffic engineering policy in software defined ISP networks. Evaluation of this approach is tricky, as real world SDN testbeds are costly and not easily available for the research community. So, we designed a tool that leverages the huge amount of resources available in the grid, to easily emulate such scenarios. Our tool, called DiG, takes into account the physical resources (memory, CPU, link capacity) constraints to provide a realistic evaluation environment with controlled conditions. Our NFV-based approach requires multiple application specific functions (e.g., MNFs) to control and manage the network devices and process the related data traffic in an independent way. Ideally, these specific functions should be implemented directly on hardware programmable routers. In this case, new routers must be able to execute multiple independently developed programs. Packet-level programming language P4, one of the promising SDN-enabling technologies, allows applications to program their data traffic processing on P4 compatible network devices. In the second part of the thesis, we propose a novel approach to deploy and execute multiple independently developed and compiled applications programs on the same network device. This solution, called P4Bricks, allows multiple applications to control and manage their data traffic, independently. P4Bricks merges programmable blocks (parsers/deparsers and packet processing pipelines) of P4 programs according to processing semantics (parallel or sequential) provided at the time of deployment
3

Mabrouk, Lhoussein. "Contribution à l'implémentation des algorithmes de vision avec parallélisme massif de données sur les architectures hétérogènes CPU/GPU". Thesis, Université Grenoble Alpes, 2020. http://www.theses.fr/2020GRALT009.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Le mélange de gaussiennes (MoG) et l'acquisition comprimée (CS) sont deux algorithmes utilisés dans de nombreuses applications de traitement d'image et du son. Leur combinaison, CS-MoG, a été récemment utilisée pour la soustraction de fond dans des applications de détection des objets mobiles. Néanmoins, les implémentations de CS-MoG présentées dans la littérature ne profitent pas pleinement de l'évolution des architectures hétérogènes. Ces travaux de thèse proposent deux contributions pour l'implémentation efficace de CS-MoG sur architectures parallèles hétérogènes CPU/GPU. Ces dernières offrent de nos jours une grande flexibilité de programmation permettant d’optimiser les performances ainsi que l’efficacité énergétique.Notre première contribution consiste à offrir le meilleur compromis accélération-précision sur CPU et GPU. La seconde est la proposition d'une nouvelle approche adaptative de partitionnement de données permettant d'exploiter pleinement l'ensemble des CPUs-GPUs. Quelles que soient leurs performances relatives, cette approche, appelée Curseur de Distribution Optimale de Données (ODDC), vise à assurer un équilibrage automatique de la charge de calcul en estimant la proportion optimale des données qui doit être affectée à chaque processeur, en prenant en compte sa capacité de calcul.Cette approche met à jour ce partitionnement en ligne ce qui permet de prendre en compte toute influence de l'irrégularité du contenu des images traitées. En termes d’objets mobiles, nous ciblons principalement les véhicules dont la détection représente un ensemble de défis, mais afin de généraliser notre approche, nous testons également des scènes contenant d’autres types de cibles.Les résultats expérimentaux, sur différentes plateformes et jeux de données, montrent que la combinaison de nos deux contributions permet d'atteindre 98% des performances maximales possibles sur ces plateformes. Ces résultats peuvent être aussi bénéfiques pour d'autres algorithmes où les calculs s'effectuent d'une manière indépendante sur des petits grains de données
Mixture of Gaussians (MoG) and Compressive Sensing (CS) are two common algorithms in many image and audio processing systems. Their combination, CS-MoG, was recently used for mobile objects detecting through background subtraction. However, the implementations of CS-MoG presented in previous works do not take full advantage of the heterogeneous architectures evolution. This thesis proposes two contributions for the efficient implementation of CS-MoG on heterogeneous parallel CPU/GPU architectures. These technologies nowadays offer great programming flexibility, which allows optimizing performance as well as energy efficiency.Our first contribution consists in offering the best acceleration-precision compromise on CPU and GPU. The second is the proposition of a new adaptive approach for data partitioning, allowing to fully exploiting the CPUs-GPUs. Whatever their relative performance, this approach, called the Optimal Data Distribution Cursor (ODDC), aims to ensure automatic balancing of the computational load by estimating the optimal proportion of data that has to be affected to each processor, taking into account its computing capacity.This approach updates the partitioning online, which allows taking into account any influence of the irregularity of the processed images content. In terms of mobile objects, we mainly target vehicles whose detection represents some challenges, but in order to generalize our approach, we test also scenes containing other types of targets.Experimental results, on different platforms and datasets, show that the combination of our two contributions makes it possible to reach 98% of the maximal possible performance on these platforms. These results can also be beneficial for other algorithms where calculations are performed independently on small grains of data
4

Castanié, Laurent. "Visualisation de données volumiques massives : application aux données sismiques". Thesis, Vandoeuvre-les-Nancy, INPL, 2006. http://www.theses.fr/2006INPL083N/document.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Les données de sismique réflexion sont une source d'information essentielle pour la modélisation tridimensionnelle des structures du sous-sol dans l'exploration-production des hydrocarbures. Ce travail vise à fournir des outils de visualisation pour leur interprétation. Les défis à relever sont à la fois d'ordre qualitatif et quantitatif. Il s'agit en effet de considérer (1) la nature particulière des données et la démarche d'interprétation (2) la taille des données. Notre travail s'est donc axé sur ces deux aspects : 1) Du point de vue qualitatif, nous mettons tout d'abord en évidence les principales caractéristiques des données sismiques, ce qui nous permet d'implanter une technique de visualisation volumique adaptée. Nous abordons ensuite l'aspect multimodal de l'interprétation qui consiste à combiner plusieurs sources d'information (sismique et structurale). Selon la nature de ces sources (strictement volumique ou volumique et surfacique), nous proposons deux systèmes de visualisation différents. 2) Du point de vue quantitatif, nous définissons tout d'abord les principales contraintes matérielles intervenant dans l'interprétation, ce qui nous permet d'implanter un système générique de gestion de la mémoire. Initialement destiné au couplage de la visualisation et des calculs sur des données volumiques massives, il est ensuite amélioré et spécialisé pour aboutir à un système dynamique de gestion distribuée de la mémoire sur cluster de PCs. Cette dernière version, dédiée à la visualisation, permet de manipuler des données sismiques à échelle régionale (100-200 Go) en temps réel. Les problématiques sont abordées à la fois dans le contexte scientifique de la visualisation et dans le contexte d'application des géosciences et de l'interprétation sismique
Seismic reflection data are a valuable source of information for the three-dimensional modeling of subsurface structures in the exploration-production of hydrocarbons. This work focuses on the implementation of visualization techniques for their interpretation. We face both qualitative and quantitative challenges. It is indeed necessary to consider (1) the particular nature of seismic data and the interpretation process (2) the size of data. Our work focuses on these two distinct aspects : 1) From the qualitative point of view, we first highlight the main characteristics of seismic data. Based on this analysis, we implement a volume visualization technique adapted to the specificity of the data. We then focus on the multimodal aspect of interpretation which consists in combining several sources of information (seismic and structural). Depending on the nature of these sources (strictly volumes or both volumes and surfaces), we propose two different visualization systems. 2) From the quantitative point of view, we first define the main hardware constraints involved in seismic interpretation. Focused on these constraints, we implement a generic memory management system. Initially able to couple visualization and data processing on massive data volumes, it is then improved and specialised to build a dynamic system for distributed memory management on PC clusters. This later version, dedicated to visualization, allows to manipulate regional scale seismic data (100-200 GB) in real-time. The main aspects of this work are both studied in the scientific context of visualization and in the application context of geosciences and seismic interpretation
5

Buslig, Leticia. "Méthodes stochastiques de modélisation de données : application à la reconstruction de données non régulières". Thesis, Aix-Marseille, 2014. http://www.theses.fr/2014AIXM4734/document.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
6

Saade, Julien. "Encodage de données programmable et à faible surcoût, limité en disparité et en nombre de bits identiques consécutifs". Thesis, Université Grenoble Alpes (ComUE), 2015. http://www.theses.fr/2015GREAM079/document.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Grace à leur simplicité de routage, la réduction du bruit, de la consommation d'energie, d'espace de routage et d'interférences électromagnétiques en comparaison avec les liaisons parallèles, les Liaisons Série Haut Débit (High-Speed Serial Links) se trouvent aujourd'hui dans la grande majorité des systèmes sur puce (SoC) connectant les différents composants : la puce principale avec ses entrées/sorties, la puce principale avec une autre puce, la communication inter-processeurs etc…Par contre, changer des liaisons parallèles pour utiliser des liaisons séries haut débit présente plusieurs défi : les liaisons série haut débit doivent tourner à des fréquences plus élevées que celle des liaisons parallèles pour atteindre plusieurs Gigabits par seconde (Gbps) pour garder le même débit que celui des liaisons parallèles, tout en répondant à l'augmentation exponentielle de la demande de débit. L'atténuation du signal sur le cuivre augmente avec la fréquence, nécessitant de plus en plus d'égaliseurs et de techniques de filtrage, et donc augmentant la complexité du design et la consommation d'énergie.L'une des façons pour optimiser le design avec des hautes fréquences c'est d'intégrer l'horloge dans la ligne de données, car une ligne d'horloge implique plus de surface de routage et elle pourra bien devenir une source d'interférences électromagnétiques (EMI). Une autre bonne raison pour utiliser une horloge intégrée c'est que la déviation du signal d'horloge par rapport au signal de data (skew en anglais) devient difficile à contrôler sur des fréquences élevées. Des transitions doivent donc être assurées dans les données transmises, pour que le récepteur soit capable de se synchroniser et de récupérer les données correctement. En d'autres termes, le nombre de bits consécutifs, aussi appelé la Run Length (RL) en anglais doit être réduit ou borné à une certaine limite.Un autre défi ou caractéristique à réduire ou borner dans les données à transmettre est la différence entre le nombre de bits à 1 et le nombre de bits à 0 transmis. On l'appelle la disparité RD (de l'anglais Running Disparity). Les grands écarts entre le nombre de bits à 1 et les bits à 0 transférés peuvent provoquer un décalage du signal par rapport à la ligne de base. On appelle ça le Baseline Wander en anglais (BLW). Le BLW pourra augmenter le taux de bits erronés (Bit Error Rate – BER) ou exiger des techniques de filtrage et d'égalisations au récepteur pour être corrigé. Cela va donc augmenter la complexité du design et la consommation d'énergie.Pour assurer une RL et une RD bornées, les données à transmettre sont généralement encodés. A travers le temps, plusieurs méthodes d'encodages ont été présentées et utilisées dans les standards ; certaines présentent de très bonnes caractéristiques mais au cout d'un grand nombre supplémentaire de bits, en anglais appelé Overhead, affectant donc le débit. D'autres encodages ont un overhead moins important mais n'assurent pas les mêmes limites de RL et de RD, et par conséquence ils nécessitent plus de complexité analogique pour corriger les conséquences et donc augmentant ainsi la consommation d'énergie.Dans cette thèse, on propose un nouvel encodage de données qui peut borner la RD et la RL pour les bornes souhaités, et avec un très faible cout sur la bande passante (l'overhead). Ce codage permet de borner la RL et la RD aux mêmes limites que les autres codages et avec un overhead 10 fois moins important.Dans un premier temps on montre comment on peut borner la RL à la valeur souhaitée avec un codage à très faible overhead. Dans un second temps on propose un encodage très faible cout pour borner la RD à la valeur souhaitée aussi. Ensuite on montrera comment on pourra fusionner ces deux encodages en un seul, pour construire un encodage de données programmable et à faible cout de bande passante, limité en disparité et en nombre de bits identiques consécutifs
Thanks to their routing simplicity, noise, EMI (Electro-Magnetic Interferences), area and power consumption reduction advantages over parallel links, High Speed Serial Links (HSSLs) are found in almost all today's System-on-Chip (SoC) connecting different components: the main chip to its Inputs/Outputs (I/Os), the main chip to a companion chip, Inter-Processor Communication (IPC) and etc… Serial memory might even be the successor of current DDR memories.However, going from parallel links to high-speed serial links presents many challenges; HSSLs must run at higher speeds reaching many gigabits per second to maintain the same end-to-end throughput as parallel links as well as satisfying the exponential increase in the demand for throughput. The signal's attenuation over copper increases with the frequency, requiring more equalizers and filtering techniques, thereby increasing the design complexity and the power consumption.One way to optimize the design at high speeds is to embed the clock within the data, because a clock line means more routing surface, and it also can be source to high EMI. Another good reason to use an embedded clock is that the skew (time mismatch between the clock and the data lanes) becomes hard to control at high frequencies. Transitions must then be ensured inside the data that is sent on the line, for the receiver to be able to synchronize and recover the data correctly. In other words, the number of Consecutive Identical Bits (CIBs) also called the Run Length (RL) must be reduced or bounded to a certain limit.Another challenge and characteristic that must be bounded or reduced in the data to send on a HSSL is the difference between the number of ‘0' bits and ‘1' bits. It is called the Running Disparity (RD). Big differences between 1's and 0's could shift the signal from the reference line. This phenomenon is known as Base-Line Wander (BLW) that could increase the BER (Bit Error Rate) and require filtering or equalizing techniques to be corrected at the receiver, increasing its complexity and power consumption.In order to ensure a bounded Run Length and Running Disparity, the data to be transmitted is generally encoded. The encoding procedure is also called line coding. Over time, many encoding methods were presented and used in the standards; some present very good characteristics but at the cost of high additional bits, also called bandwidth overhead, others have low or no overhead but do not ensure the same RL and RD bounds, thus requiring more analog design complexity and increasing the power consumption.In this thesis, we propose a novel programmable line coding that can perform to the desired RL and RD bounds with a very low overhead, down to 10 times lower that the existing used encodings and for the same bounds. First, we show how we can obtain a very low overhead RL limited line coding, and second we propose a very low overhead method which bounds the RD, and then we show how we can combine both techniques in order to build a low overhead, Run Length Limited, and Running Disparity bounded Line Coding
7

Karam, Sandrine. "Application de la méthodologie des plans d'expériences et de l'analyse de données à l'optimisation des processus de dépôt". Limoges, 2004. http://aurore.unilim.fr/theses/nxfile/default/8f5029e5-3ced-4997-973f-2cc455e74bf1/blobholder:0/2004LIMO0044.pdf.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Traditionnellement, un chercheur effectue des expériences de manière séquentielle en faisant varier les paramètres les uns après les autres. Cette méthode donne des résultats mais elle est coûteuse en temps et nécessite la réalisation d’un grand nombre d’expériences. Les méthodes d’analyses de données permettent de collecter, de résumer et de présenter des données de façon à en tirer le maximum d’informations pour la suite des expériences. Pour mener une recherche expérimentale planifiée, la méthodologie des plans d’expériences est utilisée. Cette démarche aide l’expérimentateur à structurer sa recherche de manière différente, à valider ses propres hypothèses, à mieux comprendre les phénomènes étudiés et à solutionner les problèmes. L’objectif de cette thèse est de présenter, à travers des exemples d’applications liés à l’élaboration de dépôts, la mise en œuvre et l’intérêt de ces méthodes destinées à tout expérimentateur désirant optimiser l’efficacité de sa recherche expérimentale
Traditionally, a scientist carries out experiments in a sequential way by varying the parameters the ones after the others. This method gives results but is very expensive in time because it inevitably requires the realization of a great number of experiments. This is why it is important to help the scientist to achieve his experiments with data analyses and experimental design methods. Data analysis makes it possible to collect, summarize and present data so as to optimize the way to implement next experiments. By using experimental design, the scientist knows how to plan experiments. This experimental step will help him to structure his research in a different way, to validate his own assumptions, with better understanding the studied phenomena, and to solve the problems. The objective of this thesis is to present, through examples of applications related to the development of deposits, the elaboration and the interest of these methods
8

Lopez, Philippe. "Comportement mécanique d'une fracture en cisaillement, analyse par plan d'expériences des données mécaniques et morphologiques connues sur une fracture". Thesis, National Library of Canada = Bibliothèque nationale du Canada, 2001. http://www.collectionscanada.ca/obj/s4/f2/dsk3/ftp04/NQ57923.pdf.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
9

Lopez, Philippe. "Comportement mécanique d'une fracture en cisaillement : analyse par plan d'expériences des données mécaniques et morphologiques connues sur une fracture". Thèse, Bordeaux 1, 2000. http://constellation.uqac.ca/949/1/12127341.pdf.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Une série d'essais mécaniques en cisaillement sur des répliques en mortier d'une fracture rocheuse (Flamand, 2000) a permis de mettre en évidence l'influence de la morphologie sur le comportement mécanique en cisaillement. Partant de ces essais on se propose d'établir un modèle du comportement et de déterminer quels sont les paramètres ou facteurs morphologiques les plus influents sur le comportement. A cette fin une revue bibliographique dans le domaine du comportement mécanique des fractures rocheuses a été réalisée ; il en ressort que les modèles actuels ne permettent pas de modéliser en une seule fois, le comportement sur toute la gamme des déplacements horizontaux. Dans un premier temps, une simulation géostatistique de la surface des épontes rocheuses est effectuée pour calculer, quelle que soit la direction de déplacement relatif des épontes, les valeurs de facteurs morphologiques ; on en retient quatre RL, Z3, 62, Z4. Dans un deuxième temps, un plan d'expériences prenant en compte des facteurs mécaniques (contrainte normale et déplacement horizontal) et les facteurs morphologiques précédents est construit; les résultats qui en découlent sont analysés. Les résultats du plan permettent d'obtenir un modèle de simulation du comportement pour des contraintes normales comprises entre 0 % et 30 % de la résistance en compression du matériau utilisé pour les répliques, pour des déplacements tangentiels compris entre 0 mm et 5 mm, et pour toutes les directions de déplacements horizontaux. Le facteur morphologique Z3 se distingue des autres ; on montre que son influence sur le comportement est très faible. Les facteurs morphologiques (RL, Z4 et 82) influencent de façon significative le comportement mécanique en cisaillement, soit la dilatance, et la contrainte tangentielle. Tenant compte des résultats d'une étude des erreurs de prédiction, une nouvelle série d'essais est proposée respectant une répartition uniforme des niveaux du facteur morphologique 02.
10

Plessis, Gaël. "Utilisation du formalisme flou pour l'identification modale à partir de données expérimentales incertaines". Valenciennes, 2001. https://ged.uphf.fr/nuxeo/site/esupversions/0201670a-9b60-45b4-979f-f37adefecde6.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
La prise en compte des incertitudes de mesure en identification modale est un problème très global. Il est constaté dans cette étude que généralement la connaissance sur un système mécanique n'est pas suffisante pour que sa représentation en laboratoire soit unique. Il est alors proposé de prendre en compte cette incertitude sur la configuration expérimentale dans le processus d'identification modale. L'approche possibiliste est choisie pour développer une méthodologie originale qui soit capable de déterminer l'incertitude sur les solutions propres identifiées compte tenu de cette incertitude. Il est proposé dans un premier temps de formaliser l'incertitude sur les données expérimentales par une description possibiliste des réponses dynamiques mesurées. Dans un second temps il s'agit de traiter ces réponses complexes floues dans le processus d'identification afin de déterminer l'incertitude sur les solutions modales identifiées. Trois techniques de résolution sont alors abordées. Chacune d'elles met en évidence de nouvelles difficultés qui servent de base à la construction des suivantes. La synthèse de ces approches permet finalement de proposer une méthodologie, validée numériquement, capable de répercuter l'incertitude des réponses sur les solutions propres identifiées. Cette méthodologie est finalement exploitée dans un contexte expérimental. Cette étude est organisée suivant un plan d'expériences de manière à confronter les solutions issues de l'analyse statistique des résultats à celles données par la méthodologie proposée. Les solutions entre les deux approches se montrent alors cohérentes
Modal identification with uncertain data is a global problem. It is established in this study that generally, knowledge about a mechanical system is not sufficient to describe only one possible experimental representation of this system. It is proposed to take into account this experimental representation uncertainty in the modal identification process. An original method, based on the possibilitic approach is developed to give modal solutions uncertainty from the uncertain representation of the system. First, a possibilistic description of experimental dynamical responses is given in order to take into account experimental data uncertainty. Secondly, these fuzzy complex responses are introduced in the identification process in order to compute uncertainty of estimate modal solutions. Three approaches are hence considered. Each one bring about new difficulties that are then considered according in order to formulate the next solution. These approaches are finally synthesised into a new one, which is numerically validated and capable to reverberate data uncertainty into estimated modal solutions. Finally, this method is exploited in an experimental context. This study is organised following an exeprimental layout in order to make a confrontation between the statistical analysis solutions and fuzzy method ones. Results from both approaches are coherent
11

Madelenat, Jill. "La consommation énergétique du secteur tertiaire marchand : le cas de la France avec données d’enquête à plan de sondage complexe". Thesis, Paris 10, 2016. http://www.theses.fr/2016PA100183/document.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Cette thèse porte sur la consommation énergétique du secteur tertiaire marchand en France. Notre approche est empirique, et s’appuie sur l’Enquête sur les Consommations d’Énergie dans le Tertiaire (ECET). À partir d’une revue de littérature consacrée à l’étude économétrique des déterminants de la consommation énergétique des bâtiments (résidentiels ou tertiaires), nous mettons en évidence la coexistence de deux méthodes d’estimation, sur lesquelles nous revenons. Nous exposons également les consensus ou les débats portant sur les effets des déterminants étudiés. Dans la mesure où les données mobilisées dans cette thèse sont issues d’une enquête à plan de sondage complexe, nous présentons les outils statistiques adaptés à l’exploitation de données issues de ce type d’échantillonnage, puis nous analysons la controverse qui continue d’exister sur l’estimation de modèles économétriques sur données d’enquête. Nous mobilisons alors notre base de données pour fournir une première description statistique des consommations énergétiques du secteur tertiaire marchand en France. Cette description statistique s’appuie sur nomenclature que nous construisons afin d’obtenir des informations à l’échelle infra-sectorielle. Enfin, nous utilisons l’ensemble des méthodes et approches préalablement identifiées pour étudier les déterminants de la demande énergétique des établissements tertiaires sur la base d’une analyse économétrique des données de l’ECET. Cela nous conduit à effectuer une double lecture de nos résultats, à la fois comme éléments de réponse à la question de l’impact des variables étudiées sur la demande d’énergie des établissements, et comme éléments de comparaison des différentes méthodes
This thesis deals with energy consumption in the French tertiary buildings. We adopt an empirical approach based on a French national survey, the Tertiary Buildings Energy Consumption Survey (l’Enquête sur les Consommations d’Énergie dans le Tertiaire (ECET)). From a literature review, we present the econometric analyses of the drivers of energy consumption in buildings (residential and tertiary). This review highlights the coexistence of two estimation methods. We discuss these methods, and then we detail consensus and debates on the effects of every driver that has already been analyzed in the literature. Because the data we use are complex sample survey data, we describe the statistical tools that must be used to analyze this type of data, and next present the still controversial issue of econometric modeling based on survey data. Then we use our database to produce a first statistical description of energy consumption in tertiary buildings. This description is based on a nomenclature that we establish to obtain information at the subsector level. Finally, we use all the methods and approaches identified previously to study the drivers of the tertiary buildings’ energy demand by implementing an econometric analysis on the ECET data. This lead to a double analysis of our results, both as elements of knowledge on the impact of each driver on energy consumption and as materials that help to compare the different methods to use
12

Beal, Aurélie. "Description et sélection de données en grande dimension". Electronic Thesis or Diss., Aix-Marseille, 2015. http://www.theses.fr/2015AIXM4305.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
L'évolution des technologies actuelles permet de traiter un grand nombre d'expériences (ou de simulations) et d'envisager un nombre important de paramètres. Cette situation conduit à des matrices de grande, voire très grande, dimension et nécessite le développement de nouveaux outils pour évaluer et visualiser ces données et, le cas échéant, en réduire la dimension. L'évaluation de la qualité de l'information apportée par l'ensemble de points constituant une base de données ou un plan d'expériences peut se faire au travers de critères basés sur des calculs de distance, qui renseigneront sur l'uniformité de la répartition dans l'espace multidimensionnel. Parmi les méthodes de visualisation, l'Analyse en Composantes Curvilignes a l'avantage de projeter des données en grande dimension dans un espace bidimensionnel en préservant la topologie locale, ce qui peut aider à détecter des amas de points ou des zones lacunaires. La réduction de dimension s'appuie sur une sélection judicieuse de sous-ensembles de points ou de variables, via des algorithmes. Les performances de ces méthodes ont été évaluées sur des cas d'étude issus des études QSAR, de la spectroscopie et de la simulation numérique
Technological progress has now made many experiments (or simulations) possible, along with taking into account a large number of parameters, which result in (very) high-dimensional matrix requiring the development of new tools to assess and visualize the data and, if necessary, to reduce the dimension. The quality of the information provided by all points of a database or an experimental design can be assessed using criteria based on distances that will inform about the uniformity of repartition in a multidimensional space. Among the visualization methods, Curvilinear Component Analysis has the advantage of projecting high-dimensional data in a two-dimensional space with respect to the local topology. This also enables the detection of clusters of points or gaps. The dimensional reduction is based on a judicious selection of subsets of points or variables, via accurate algorithms. The performance of these methods was assessed on case studies of QSAR, spectroscopy and numeric simulation
13

Beal, Aurélie. "Description et sélection de données en grande dimension". Thesis, Aix-Marseille, 2015. http://www.theses.fr/2015AIXM4305/document.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
L'évolution des technologies actuelles permet de traiter un grand nombre d'expériences (ou de simulations) et d'envisager un nombre important de paramètres. Cette situation conduit à des matrices de grande, voire très grande, dimension et nécessite le développement de nouveaux outils pour évaluer et visualiser ces données et, le cas échéant, en réduire la dimension. L'évaluation de la qualité de l'information apportée par l'ensemble de points constituant une base de données ou un plan d'expériences peut se faire au travers de critères basés sur des calculs de distance, qui renseigneront sur l'uniformité de la répartition dans l'espace multidimensionnel. Parmi les méthodes de visualisation, l'Analyse en Composantes Curvilignes a l'avantage de projeter des données en grande dimension dans un espace bidimensionnel en préservant la topologie locale, ce qui peut aider à détecter des amas de points ou des zones lacunaires. La réduction de dimension s'appuie sur une sélection judicieuse de sous-ensembles de points ou de variables, via des algorithmes. Les performances de ces méthodes ont été évaluées sur des cas d'étude issus des études QSAR, de la spectroscopie et de la simulation numérique
Technological progress has now made many experiments (or simulations) possible, along with taking into account a large number of parameters, which result in (very) high-dimensional matrix requiring the development of new tools to assess and visualize the data and, if necessary, to reduce the dimension. The quality of the information provided by all points of a database or an experimental design can be assessed using criteria based on distances that will inform about the uniformity of repartition in a multidimensional space. Among the visualization methods, Curvilinear Component Analysis has the advantage of projecting high-dimensional data in a two-dimensional space with respect to the local topology. This also enables the detection of clusters of points or gaps. The dimensional reduction is based on a judicious selection of subsets of points or variables, via accurate algorithms. The performance of these methods was assessed on case studies of QSAR, spectroscopy and numeric simulation
14

Chemmi, Malika. "La marge de manoeuvre de l'expert-comptable dans le plan de restructuration de l’emploi des entreprises : le poids des lois et le choc des données". Thesis, Paris 13, 2014. http://www.theses.fr/2014PA131034.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Notre thèse étudie un domaine qui est dominé à la fois par des lois très contraignantes et des données difficiles à analyser. Elle se situe à l’intersection entre l’analyse de l’existant et la prévision des tendances futures. Son objet est le comité d’entreprise. En matière de projet de réorganisation d’une firme, les élus peuvent se faire accompagner par un expertcomptable. Or, quel peut être le poids de son rapport ? Peut-il réellement modifier ou annuler un plan de restructuration ? Les pouvoirs qui lui sont dévolus par la loi sont restreints puisqu'il ne peut pas agir et alerter directement les instances judiciaires. Parallèlement, on a supposé qu'un plan de restructuration ne peut être qu'en accord avec la loi et la réglementation car les directions ne prendraient pas le risque de procéder à des licenciements « secs » si elles n'étaient pas en difficulté. Il est vrai que dans la majorité des cas, l’expert-comptable ne peut pas remettre en cause un plan de restructuration. Il pourra généralement fournir des informations aux élus leur permettant de négocier une prime de sortie. Néanmoins, à travers l'étude d'un cas réel, on a pu démontrer que suite au rapport d'un expert-comptable, un projet de licenciement a été remis en cause et annulé. Cela a été possible car le seul motif de baisse de chiffre d'affaires suite à la perte d'un client ne peut être retenu pour procéder à une réduction d'effectif. Les représentants du personnel sont devenus des acteurs clés dans la gestion de l'entreprise
Our doctorate thesis studies a domain which is dominated at the same time by very binding laws and data difficult to analyze. It is situated in the intersection between the analysis of the existing and the forecast of the future tendencies. Its object is the works council. Regarding project of reorganization of a firm, the elected representatives can be accompanied by a chartered accountant. Yet, what can be the weight of its relationship? Can he really modify or cancel a restructuring plan? The powers which are devolved to him by the law are restricted because he cannot act and alert directly the judicial authorities. At the same time, we supposed that a restructuring plan can be only in agreement with the law and the regulations because the directions would not take the risk of proceeding to “dry” dismissals if they were not in trouble. It is true that in the majority of the cases, the chartered accountant cannot question a restructuring plan. He can generally supply information to the elected representatives allowing them to negotiate a bonus of exit. Nevertheless, through the study of a real case, we were able to demonstrate that further to the report of a chartered accountant, a project of dismissal was questioned and cancelled. It was possible because be held to proceed to a reduction in turnover further to the loss of a customer cannot be held to proceed to a reduction of staff. The staff representatives became key players in the management of the company
15

Flageul, Cédric. "Création de bases de données fines par simulation directe pour les effets de la turbulence sur les transferts thermiques pariétaux". Thesis, Poitiers, 2015. http://www.theses.fr/2015POIT2281/document.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Cette étude porte sur le transfert thermique pariétal dans un canal plan turbulent. L'étude est théorique et numérique. Nos simulations directes (DNS) sont effectuées avec le code de calcul Incompact3d. On a porté un intérêt particulier aux grandeurs que l'on trouve dans les bilans des flux thermiques turbulents et de la variance de la température : ces données permettent de valider les modèles de type RANS. On analyse également nos simulation à l'aune de statistiques plus fines, telles que les corrélations en 2 points. On distingue 2 traitements de la thermique dans le cas du canal plan turbulent : avec ou sans prise en compte du transfert thermique conjugué (couplage thermique fluide/solide). Pour les cas avec transfert thermique conjugué, on a mis en évidence une condition de compatibilité dans l'espace spectral entre la température et le flux de chaleur à l'interface fluide-solide. En l'absence de transfert thermique conjugué, notre étude se borne aux conditions limites qui sont une combinaison linéaire à coefficients constants de la température et du flux de chaleur à la paroi (Dirichlet, Neumann, Robin). Pour ces conditions aux limites simples, on met en évidence une condition de compatibilité entre les valeurs pariétales de la variance de la température et la partie normale de la dissipation associée. D'une part, cette relation souligne les limites des simulations avec une température ou un flux imposé à la paroi. D'autre part, elle permet de construire des conditions de type Robin sur-mesure qui donnent des résultats proches de ceux obtenus avec transfert thermique conjugué pour la configuration du canal plan turbulent
This study focuses on the turbulent heat transfer in the turbulent channel flow configuration. Our Direct Numerical Simulations are performed using the open-source code Incompact3d. As our target is to produce data for RANS models validation, the budgets of the turbulent heat fluxes and of the temperature variance are extracted. Two-point correlations for the temperature and wall-normal heat flux are also presented to deepen our analysis. Regarding the thermal field, 2 configurations are considered: with and without conjugate heat transfer (thermal coupling between the fluid and solid domains). For conjugate heat transfer cases, a novel compatiblity condition, expressed in the spectral space, connects the temperature and wall-normal heat flux at the fluid-solid interface. For non-conjugate cases, our study is limited to boundary conditions that impose a linear combination of the temperature and wall-normal heat flux at the wall using constant coefficients (Dirichlet, Neumann, Robin). For such simple boundary conditions, a novel compatibility condition is obtained which connects the wall-value of the temperature variance and the wall-normal part of the associated dissipation rate. On one hand, this condition highlights the limitations of an imposed temperature or heat-flux at the wall. On the other, it allows us to build tailored Robin boundary conditions able to reproduce satisfactorily present conjugate heat-transfer results in the channel flow configuration
16

Chaignon, Paul. "Software Datapaths for Multi-Tenant Packet Processing". Thesis, Université de Lorraine, 2019. http://www.theses.fr/2019LORR0062/document.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
En environnement multi-tenant, les réseaux s'appuient sur un ensemble de ressources matérielles partagées pour permettre à des applications isolés de communiquer avec leurs clients. Cette isolation est garantie par un ensemble de mécanismes à la bordure des réseaux: les mêmes serveurs hébergeant les machines virtuelles doivent notamment déterminer le destinataire approprié pour chaque paquet réseau, copier ces derniers entre zones mémoires isolées et supporter les tunnels permettant l'isolation du trafic lors de son transit sur le coeur de réseau. Ces différentes tâches doivent être accomplies avec aussi peu de ressources matérielles que possible, ces dernières étant tout d'abord destinées aux machines virtuelles. Dans un contexte d'intensification de la demande en haute performance sur les réseaux, les acteurs de l'informatique en nuage ont souvent recours à des équipements matériels spécialisés mais inflexibles, leur permettant d'atteindre les performances requises. Néanmoins, dans cette thèse, nous défendons la possibilité d'améliorer les performances significativement sans avoir recours à de tels équipements. Nous prônons, d'une part, une consolidation des fonctions réseaux au niveau de la couche de virtualisation et, d'autre part, une relocalisation de certaines fonctions réseaux hors des machines virtuelles. À cette fin, nous proposons Oko, un commutateur logiciel extensible qui facilite la consolidation des fonctions réseaux dans la couche de virtualisation. Oko étend les mécanismes de l'état de l'art permettant une mise en cache des règles de commutateurs, ceci afin de permettre une exécution des fonctions réseaux sous forme d'extensions au commutateur. De plus, les extensions sont isolées du coeur du commutateur afin d'empêcher des fautes dans les extensions d'impacter le reste du réseau et de faciliter une mise en place rapide et sûre de nouvelles fonctions réseaux. En permettant aux fonctions réseaux de s'exécuter au sein du commutateur logiciel, sans redirections vers des processus distincts, Oko diminue de moitié le coût lié à l'exécution des fonctions réseaux en moyenne. Notre seconde contribution vise à permettre une exécution de certaines fonctions réseaux en amont des machines virtuelles, au sein de la couche de virtualisation. L'exécution de ces fonctions réseaux hors des machines virtuelles permet d'importants gains de performance, mais lèvent des problématiques d'isolation. Nous réutilisons et améliorons la technique utilisé dans Oko pour isoler les fonctions réseaux et l'étendons avec un mécanisme de partage équitable du temps CPU entre les différentes fonctions réseaux relocalisées
Multi-tenant networks enable applications from multiple, isolated tenants to communicate over a shared set of underlying hardware resources. The isolation provided by these networks is enforced at the edge: end hosts demultiplex packets to the appropriate virtual machine, copy data across memory isolation boundaries, and encapsulate packets in tunnels to isolate traffic over the datacenter's physical network. Over the last few years, the growing demand for high performance network interfaces has pressured cloud providers to build more efficient multi-tenant networks. While many turn to specialized, hard-to-upgrade hardware devices to achieve high performance, in this thesis, we argue that significant performance improvements are attainable in end-host multi-tenant networks, using commodity hardware. We advocate for a consolidation of network functions on the host and an offload of specific tenant network functions to the host. To that end, we design Oko, an extensible software switch that eases the consolidation of network functions. Oko includes an extended flow caching algorithm to support its runtime extension with limited overhead. Extensions are isolated from the software switch to prevent failures on the path of packets. By avoiding costly redirections to separate processes and virtual machines, Oko halves the running cost of network functions on average. We then design a framework to enable tenants to offload network functions to the host. Executing tenant network functions on the host promises large performance improvements, but raises evident isolation concerns. We extend the technique used in Oko to provide memory isolation and devise a mechanism to fairly share the CPU among offloaded network functions with limited interruptions
17

Sasportas, Raphaël. "Etude d'architectures dédiées aux applications temps réel d'analyse d'images par morphologie mathématique". Paris, ENMP, 2002. http://www.theses.fr/2002ENMP1082.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
18

Mora, Pascal. "Étude et caractérisation de la fiabilité de cellules mémoire non volatiles pour des technologies CMOS et BICMOS avancées". Grenoble INPG, 2007. http://www.theses.fr/2007INPG0065.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Aujourd'hui les solutions mémoire programmables de type Flash compatibles CMOS sont très demandées. Cependant, leur intégration dans les technologies logiques se heurte à des barrières physiques liées au caractère non volatile de la structure. En effet, certaines étapes du procédé de fabrication ne sont pas adaptées à ce type de fonctionnement et induisent des problèmes de fiabilité. La thèse s'inscrit dans ce contexte avec trois grands axes de travail qui sont l'étude des mécanismes de défaillance, l'évaluation de I'impact des procédés et de l'architecture des cellules sur la fiabilité ainsi que l'optimisation des structures de test et méthodes d'analyse. Une attention particulière est portée sur l'aspect rétention de données au travers d'une étude approfondie de la perte de charge rapide qui est un point critique de la fiabilité des mémoires embarquées. Les solutions technologiques proposées permettent de repousser les limites de l'intégration de ce type de mémoires
Today, the "Flash like" memory solutions compatible with CMOS technologies are in great demand. However, their integration in digital technologies is more and more difficult due to physical barriers related to the non volatility of the structure. Indeed, several process steps are not optimized for this type of device and induce reliability issues. Ln this context, the thesis consists of three major axes of work. First we have studied the failure mechanisms. The second axe is the evaluation of the impact of both the processes and the architecture on the cell reliability. The last objective is to improve the test structures and the analysis methods. A focus is performed on the data retention aspect through a thorough study of the fast charge loss phenomenon. Indeed, this is a critical issue of the reliability of embedded non volatile memories. The technological solutions proposed make it possible to push forward the limits of the integration of such kind of memories
19

Chaignon, Paul. "Software Datapaths for Multi-Tenant Packet Processing". Electronic Thesis or Diss., Université de Lorraine, 2019. http://www.theses.fr/2019LORR0062.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
En environnement multi-tenant, les réseaux s'appuient sur un ensemble de ressources matérielles partagées pour permettre à des applications isolés de communiquer avec leurs clients. Cette isolation est garantie par un ensemble de mécanismes à la bordure des réseaux: les mêmes serveurs hébergeant les machines virtuelles doivent notamment déterminer le destinataire approprié pour chaque paquet réseau, copier ces derniers entre zones mémoires isolées et supporter les tunnels permettant l'isolation du trafic lors de son transit sur le coeur de réseau. Ces différentes tâches doivent être accomplies avec aussi peu de ressources matérielles que possible, ces dernières étant tout d'abord destinées aux machines virtuelles. Dans un contexte d'intensification de la demande en haute performance sur les réseaux, les acteurs de l'informatique en nuage ont souvent recours à des équipements matériels spécialisés mais inflexibles, leur permettant d'atteindre les performances requises. Néanmoins, dans cette thèse, nous défendons la possibilité d'améliorer les performances significativement sans avoir recours à de tels équipements. Nous prônons, d'une part, une consolidation des fonctions réseaux au niveau de la couche de virtualisation et, d'autre part, une relocalisation de certaines fonctions réseaux hors des machines virtuelles. À cette fin, nous proposons Oko, un commutateur logiciel extensible qui facilite la consolidation des fonctions réseaux dans la couche de virtualisation. Oko étend les mécanismes de l'état de l'art permettant une mise en cache des règles de commutateurs, ceci afin de permettre une exécution des fonctions réseaux sous forme d'extensions au commutateur. De plus, les extensions sont isolées du coeur du commutateur afin d'empêcher des fautes dans les extensions d'impacter le reste du réseau et de faciliter une mise en place rapide et sûre de nouvelles fonctions réseaux. En permettant aux fonctions réseaux de s'exécuter au sein du commutateur logiciel, sans redirections vers des processus distincts, Oko diminue de moitié le coût lié à l'exécution des fonctions réseaux en moyenne. Notre seconde contribution vise à permettre une exécution de certaines fonctions réseaux en amont des machines virtuelles, au sein de la couche de virtualisation. L'exécution de ces fonctions réseaux hors des machines virtuelles permet d'importants gains de performance, mais lèvent des problématiques d'isolation. Nous réutilisons et améliorons la technique utilisé dans Oko pour isoler les fonctions réseaux et l'étendons avec un mécanisme de partage équitable du temps CPU entre les différentes fonctions réseaux relocalisées
Multi-tenant networks enable applications from multiple, isolated tenants to communicate over a shared set of underlying hardware resources. The isolation provided by these networks is enforced at the edge: end hosts demultiplex packets to the appropriate virtual machine, copy data across memory isolation boundaries, and encapsulate packets in tunnels to isolate traffic over the datacenter's physical network. Over the last few years, the growing demand for high performance network interfaces has pressured cloud providers to build more efficient multi-tenant networks. While many turn to specialized, hard-to-upgrade hardware devices to achieve high performance, in this thesis, we argue that significant performance improvements are attainable in end-host multi-tenant networks, using commodity hardware. We advocate for a consolidation of network functions on the host and an offload of specific tenant network functions to the host. To that end, we design Oko, an extensible software switch that eases the consolidation of network functions. Oko includes an extended flow caching algorithm to support its runtime extension with limited overhead. Extensions are isolated from the software switch to prevent failures on the path of packets. By avoiding costly redirections to separate processes and virtual machines, Oko halves the running cost of network functions on average. We then design a framework to enable tenants to offload network functions to the host. Executing tenant network functions on the host promises large performance improvements, but raises evident isolation concerns. We extend the technique used in Oko to provide memory isolation and devise a mechanism to fairly share the CPU among offloaded network functions with limited interruptions
20

Thevenin, Mathieu. "Conception et validation d'un processeur programmable de traitement du signal à faible consommation et à faible empreinte silicium : application à la vidéo HD sur téléphone mobile". Phd thesis, Université de Bourgogne, 2009. http://tel.archives-ouvertes.fr/tel-00504704.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Les capteurs CMOS sont de plus en plus présents dans les produits de grande consommation comme les téléphones portables. Les images issues de ces capteurs nécessitent divers traitements numériques avant d'être affichées. Aujourd'hui, seuls des composants dédiés sont utilisés pour maintenir un niveau de consom- mation électrique faible. Toutefois leur flexibilité est fortement limitée et elle ne permet pas l'intégration de nouveaux algorithmes de traitement d'image. Ce manuscrit présente la conception et la validation de l'archi- tecture de calcul eISP entièrement programmable et originale capable de supporter la vidéo HD 1080p qui sera intégrée dans les futures générations de téléphones portables.
21

Carbillet, Thomas. "Monitoring en temps réel de la vitesse de déplacement sur dispositif connecté : modélisation mathématique sur plateforme mobile interfacée avec une base de données d'entraînement et d'audit physiologique". Thesis, Université Grenoble Alpes (ComUE), 2019. http://www.theses.fr/2019GREAM013/document.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
L'amélioration de la performance en course à pied, lors de courses sur du plat, raisonne avec l'actualité et l'objectif de voir un athlète descendre en dessous des deux heures sur Marathon. Cependant, il existe peu d'équipes travaillant de façon transverse sur les sujets de préparation et de stratégie de course à destination du grand public. Les programmes d'entraînement, fondés sur l'expérience des entraîneurs, ne sont pas, ou peu, personnalisés ce qui conduit à des risques de blessures et une perte de la motivation. Une limite de l'analyse actuelle des programmes d'entraînement semble avoir été atteinte et l'entreprise BillaTraining® a pour objectif de construire un pont entre la recherche scientifique et les coureurs amateurs.L'objectif principal de ce travail de thèse est double. Premièrement, nous avons essayé d'apporter une contribution à la recherche dans le domaine de la course à pied. Après avoir accumulé et formaté des données d'entraînements et de courses provenant de différentes sources, nous avons cherché à décrire des phénomènes tels que l'accélération humaine ou encore les différentes stratégies de course employées sur Marathon pour des coureurs dont les performances de durée de course sont comprises entre 2h30 et 4 heures.Deuxièmement, nous avons développé une application web intégrant les trois phases de la méthode BillaTraining®. La première étape est un audit énergétique qui n'est autre qu'un entraînement de trente minutes à la sensation, permettant de connaitre les capacités physiques d'un coureur. La second étape, le radar énergétique, est le bilan de l'audit et agit comme point d'entrée de l'entraînement sur-mesure qui est la troisième et dernière étape.Afin de répondre à ces deux objectifs, nous avons intégré des notions de physiologie, de mathématiques et d'informatique.Les connaissances en physiologie sont basées sur l'état de l'art ainsi que les recherches passées et présentes du professeur Véronique Billat. Par extension, il s'agit du coeur de métier de l'entreprise BillaTraining®. Les idées de recherche présentent dans cette thèse émanent de la physiologie.Les mathématiques, quand à elles, nous ont permis de décrire certains phénomènes physiologiques grâce notamment aux statistiques. Nous avons eu l'occasion d'utiliser le modèle d'Ornstein-Uhlenbeck de retour à la moyenne ou encore la méthode PELT (Pruned Exact Linear Time) pour la détection d'instants de ruptures dans une série temporelle.Finalement, l'informatique permet de faire communiquer les mathématiques et la physiologie à des fins de recherche scientifique et commerciales
The improvement running performance has become a major topic lately. We are getting closer to running a marathon in under 2 hours. However, there are not so many professionals working transversally regarding pre-race and in-race preparation concerning the general public. Training plans are based on trainers' experience and are often not custom-made. This exposes the runners to injury risk and motivation loss. It seems that the current analysis of training plans has reached a limit. The aim for BillaTraining® is to go beyond this limit by connecting the research with the general public of runners.This PhD has two main goals. The first one is trying to contribute to the research about running. After gathering and formatting trainings and races data from different origins, we tried to isolate and describe how humans run marathons including 2.5 to 4-hour performances. We studied acceleration, speed and heart rate time series among other things, with the idea of understanding the different running strategies.The second one is the development of a web application embracing the three steps of the BillaTraining® method. The first step is an energetic audit which is a 30-minute running session guided by the runner's sensations. The second step is the energetic radar which is the results of the audit. The last step is a tailor-made training plan built depending on the runner's objectives.In order to come up with a solution, we had to bring together Physiology, Mathematics and Computer Science.The knowledge we had in Physiology was based on professor Véronique Billat's past and current researches. These researches are now part of BillaTraining® and are central for the growth of the company.We used Mathematics to try to describe physiological phenomenons thanks to Statistics. By applying the Ornstein-Uhlenbeck model, we found that humans are able to run at an even acceleration. By using the PELT (Pruned Exact Linear Time) method we automated changepoints detection in time series.Finally, Computer Science allowed a communication between Physiology and Mathematics for research, as well as marketing training tools at the forefront of innovation
22

AIDO, LAETITIA. "Optimisation de la fabrication de l'indole-2 carboxylate d'ethyle : automatisation de la reaction de wislicenus et thoma et de la reaction d'hydrogenation de brehm, etude de differents systemes de commande : correlateur logique (...) microprocesseur". Paris 6, 1986. http://www.theses.fr/1986PA066370.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Cette etude a ete faite pour demontrer l'efficacite des methodes d'optimisation et d'automatisation; elle a permis un gain de rendement de 36 points (de 41 a 77%) associe a une forte diminution de la duree globale de la reaction (76h a 2h30)
23

Lamer, Antoine. "Contribution à la prévention des risques liés à l’anesthésie par la valorisation des informations hospitalières au sein d’un entrepôt de données". Thesis, Lille 2, 2015. http://www.theses.fr/2015LIL2S021/document.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Introduction Le Système d'Information Hospitalier (SIH) exploite et enregistre chaque jours des millions d'informations liées à la prise en charge des patients : résultats d'analyses biologiques, mesures de paramètres physiologiques, administrations de médicaments, parcours dans les unités de soins, etc... Ces données sont traitées par des applications opérationnelles dont l'objectif est d'assurer un accès distant et une vision complète du dossier médical des patients au personnel médical. Ces données sont maintenant aussi utilisées pour répondre à d'autres objectifs comme la recherche clinique ou la santé publique, en particulier en les intégrant dans un entrepôt de données. La principale difficulté de ce type de projet est d'exploiter des données dans un autre but que celui pour lequel elles ont été enregistrées. Plusieurs études ont mis en évidence un lien statistique entre le respect d'indicateurs de qualité de prise en charge de l'anesthésie et le devenir du patient au cours du séjour hospitalier. Au CHRU de Lille, ces indicateurs de qualité, ainsi que les comorbidités du patient lors de la période post-opératoire pourraient être calculés grâce aux données recueillies par plusieurs applications du SIH. L'objectif de se travail est d'intégrer les données enregistrées par ces applications opérationnelles afin de pouvoir réaliser des études de recherche clinique.Méthode Dans un premier temps, la qualité des données enregistrées dans les systèmes sources est évaluée grâce aux méthodes présentées par la littérature ou développées dans le cadre ce projet. Puis, les problèmes de qualité mis en évidence sont traités lors de la phase d'intégration dans l'entrepôt de données. De nouvelles données sont calculées et agrégées afin de proposer des indicateurs de qualité de prise en charge. Enfin, deux études de cas permettent de tester l'utilisation du système développée.Résultats Les données pertinentes des applications du SIH ont été intégrées au sein d'un entrepôt de données d'anesthésie. Celui-ci répertorie les informations liées aux séjours hospitaliers et aux interventions réalisées depuis 2010 (médicaments administrées, étapes de l'intervention, mesures, parcours dans les unités de soins, ...) enregistrées par les applications sources. Des données agrégées ont été calculées et ont permis de mener deux études recherche clinique. La première étude a permis de mettre en évidence un lien statistique entre l'hypotension liée à l'induction de l'anesthésie et le devenir du patient. Des facteurs prédictifs de cette hypotension ont également étaient établis. La seconde étude a évalué le respect d'indicateurs de ventilation du patient et l'impact sur les comorbidités du système respiratoire.Discussion The data warehouse L'entrepôt de données développé dans le cadre de ce travail, et les méthodes d'intégration et de nettoyage de données mises en places permettent de conduire des analyses statistiques rétrospectives sur plus de 200 000 interventions. Le système pourra être étendu à d'autres systèmes sources au sein du CHRU de Lille mais également aux feuilles d'anesthésie utilisées par d'autres structures de soins
Introduction Hospital Information Systems (HIS) manage and register every day millions of data related to patient care: biological results, vital signs, drugs administrations, care process... These data are stored by operational applications provide remote access and a comprehensive picture of Electronic Health Record. These data may also be used to answer to others purposes as clinical research or public health, particularly when integrated in a data warehouse. Some studies highlighted a statistical link between the compliance of quality indicators related to anesthesia procedure and patient outcome during the hospital stay. In the University Hospital of Lille, the quality indicators, as well as the patient comorbidities during the post-operative period could be assessed with data collected by applications of the HIS. The main objective of the work is to integrate data collected by operational applications in order to realize clinical research studies.Methods First, the data quality of information registered by the operational applications is evaluated with methods … by the literature or developed in this work. Then, data quality problems highlighted by the evaluation are managed during the integration step of the ETL process. New data are computed and aggregated in order to dispose of indicators of quality of care. Finally, two studies bring out the usability of the system.Results Pertinent data from the HIS have been integrated in an anesthesia data warehouse. This system stores data about the hospital stay and interventions (drug administrations, vital signs …) since 2010. Aggregated data have been developed and used in two clinical research studies. The first study highlighted statistical link between the induction and patient outcome. The second study evaluated the compliance of quality indicators of ventilation and the impact on comorbity.Discussion The data warehouse and the cleaning and integration methods developed as part of this work allow performing statistical analysis on more than 200 000 interventions. This system can be implemented with other applications used in the CHRU of Lille but also with Anesthesia Information Management Systems used by other hospitals
24

Saif, Abdulqawi. "Experimental Methods for the Evaluation of Big Data Systems". Electronic Thesis or Diss., Université de Lorraine, 2020. http://www.theses.fr/2020LORR0001.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
À l’ère du big data, de nombreux systèmes et applications sont créés pour collecter, stocker et analyser des données volumineuses dans des domaines divers. Bien que les systèmes big data fassent l’objet de multiples évaluations au cours de leur cycle de développement, les secteurs de recherches public et privé encouragent les chercheurs à faire des expérimentations supplémentaires afin d’assurer la qualité de leurs services et comprendre leur performance dans des contextes et des configurations variées. Cependant, les défis expérimentaux des systèmes big data ne sont pas triviaux. Alors que de nombreux travaux de recherche utilisent encore de vieilles méthodes expérimentales pour faire face à de tels défis, nous pensons que l’activité d’expérimentation peut être améliorée en proposant des méthodes expérimentales flexibles et à jour. Dans cette thèse, nous abordons des défis particuliers pour améliorer le contexte expérimental et l’observabilité des expériences big data. Premièrement, nous permettons la personnalisation de la performance de ressources environnementales où les expériences s’exécutent, en encourageant les chercheurs à effectuer des expériences à l’échelle sur des configurations hétérogènes. Nous contribuons ensuite aux outils expérimentaux IOscope et MonEx pour améliorer l’observabilité. IOscope permet d’effectuer des observations de bas niveau sur la pile d’entrée/sortie afin de détecter d’éventuels problèmes de performance sur l’environnement d’exécution. IOscope est développé pour convaincre que les techniques d’évaluation de haut niveau doivent être accompagnées par ces outils complémentaires afin de comprendre la performance. En revanche, le framework MonEx fonctionne aux niveaux supérieurs pour faciliter la collecte de données expérimentales. MonEx est le premier outil qui fait du monitoring autour des expériences indépendamment des environnements expérimentaux sous-jacents. Nous appliquons enfin des statistiques pour améliorer les conceptions expérimentales, en réduisant le nombre de scénarios expérimentaux et en obtenant un ensemble raffiné de facteurs expérimentaux aussi rapidement que possible. Enfin, toutes les contributions se complètent pour faciliter l’activité d’expérimentation en travaillant sur presque toutes les phases du cycle de vie des expériences big data
In the era of big data, many systems and applications are created to collect, to store, and to analyze massive data in multiple domains. Although those – big data systems – are subjected to multiple evaluations during their development life-cycle, academia and industry encourage further experimentation to ensure their quality of service and to understand their performance under various contexts and configurations. However, the experimental challenges of big data systems are not trivial. While many pieces of research still employ legacy experimental methods to face such challenges, we argue that experimentation activity can be improved by proposing flexible experimental methods. In this thesis, we address particular challenges to improve experimental context and observability for big data experiments. We firstly enable experiments to customize the performance of their environmental resources, encouraging researchers to perform scalable experiments over heterogeneous configurations. We then introduce two experimental tools: IOscope and MonEx to improve observability. IOscope allows performing low-level observations on the I/O stack to detect potential performance issues in target systems, convincing that the high-level evaluation techniques should be accompanied by such complementary tools to understand systems’ performance. In contrast, MonEx framework works on higher levels to facilitate experimental data collection. MonEx opens directions to practice experiment-based monitoring independently from the underlying experimental environments. We finally apply statistics to improve experimental designs, reducing the number of experimental scenarios and obtaining a refined set of experimental factors as fast as possible. At last, all contributions complement each other to facilitate the experimentation activity by working almost on all phases of big data experiments’ life-cycle
25

Dubuc, Carole. "Vers une amélioration de l’analyse des données et une optimisation des plans d’expérience pour une analyse quantitative du risque en écotoxicologie". Thesis, Lyon 1, 2013. http://www.theses.fr/2013LYO10039/document.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
En écotoxicologie, les effets des substances toxiques sur les organismes vivants sont classiquement mesurés au niveau individuel, en laboratoire et selon des normes, ce qui assure la reproductibilité des bioessais et le contrôle des facteurs environnementaux. Ces tests standardisés, en toxicité aiguë ou chronique, portent généralement sur la survie, la reproduction et la croissance d'organismes modèles de laboratoire ; leur analyse statistique conduit à l'estimation de concentrations critiques d'effet. Ce sont ces concentrations qui sont utilisées en analyse quantitative du risque en écotoxicologie. Cependant, pour l'estimation d'un même type de concentration critique d'effet, différentes méthodes/modèles peuvent être utilisés qui sont plus ou moins adaptés en fonction du type de jeux de données. Le premier objectif de ce travail de thèse est donc de sélectionner les méthodes/modèles les plus adaptés afin d'améliorer l'analyse des données issus des tests de toxicité et donc l'estimation des concentrations critiques d'effet. Habituellement, les jeux de données sont construits à partir de tests standards en fonction de l'organisme étudié : la durée du test est généralement fixée et des recommandations sont faites, par exemple sur le nombre minimal d'organismes à exposer à un nombre minimal de concentrations. Il est donc légitime de penser que ces recommandations ne sont pas forcément les plus adaptées pour toutes les concentrations critiques d'effet et les méthodes/modèles les plus adaptés. C'est pourquoi, le deuxième objectif de cette thèse est d'optimiser les plans d'expérience afin d'aller soit vers une amélioration des estimations des concentrations critiques d'effet à coût constant soit pour un même niveau de qualité des estimations, d'éviter le gaspillage en temps et en organismes
In ecotoxicology, the effects of toxic compounds on living organisms are usually measured at the individual level, in the laboratory and according to standards. This ensures the reproducibility of bioassays and the control of environmental factors. Bioassays, in acute or chronic toxicity, generally apply to survival, reproduction and growth of organisms. The statistical analysis of standardized bioassays classically leads to the estimation of critical effect concentrations used in risk assessment. Nevertheless, several methods/models are used to determine a critical effect concentration. These methods/models are more and less adapted to the data type. The first aim of this work is to select the most adapted methods/models to improve data analysis and so the critical effect concentration estimation. Usually, data sets are built from standard bioassays and so follow recommendations about exposure duration, number and range of tested concentrations and number of individuals per concentration. We can think that these recommendations are not the most adapted for each critical effect concentration and each method/model. That’s why, the second aim of this work is to optimize the experimental design in order to improve the critical effect concentration estimations for a fixed cost or at least to reduce the waste of time and organisms
26

Soyez, Olivier. "Stockage dans les systèmes pair à pair". Phd thesis, Université de Picardie Jules Verne, 2005. http://tel.archives-ouvertes.fr/tel-00011443.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Cette thèse a pour objectif de définir un système de stockage pair à pair, nommé Us. Le but principal de Us est de garantir la pérennité des données. Pour cela, Us associe un mécanisme de redondance des données à un processus dynamique de reconstruction.

Dans un premier temps, nous avons créé un prototype Us et conçu une interface utilisateur, nommée UsFS, de type système de fichiers. Un procédé de journalisation des données est inclus dans UsFS.

Ensuite, nous nous sommes intéressés aux distributions de données au sein du réseau Us. Le but de ces distributions est de minimiser le dérangement occasionné par le processus de reconstruction pour chaque pair. Enfin, nous avons étendu notre schéma de distribution pour gérer le comportement dynamique des pairs et prendre en compte les corrélations de panne.
27

Modeley, Derek. "Etude des états doublement excités de H- et des processus de seuil dans les collisions H-/gaz rare par spectroscopie électronique à zéro degré". Paris 6, 2003. http://www.theses.fr/2003PA066458.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
28

Pois, Véronique. "La Caune de l'Arago (Pyrénées-Orientales) : visualisation spatiale, en coupe et en plan, du matériel archéologique par interrogation de la base de données matériel paléontologique et préhistorique. conséquences sur l'interprétation du mode de vie de l'homme de Tautavel". Paris, Muséum national d'histoire naturelle, 1998. http://www.theses.fr/1998MNHN0001.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Le gisement de la caune de l’Arago a Tautavel (p. -o. ) livre chaque année, et depuis 1967, un important matériel archéologique. Pour archiver, gérer et analyser les informations issues de la fouille, et complétées par les études en laboratoire, une base de données a été créée en 1987. Il est ainsi possible, par interrogation de la base de données matériel paléontologique et préhistorique et à l'aide de logiciels de visualisation, de restituer, en stratigraphie, les couches fouillées. Les projections d'objets sur plans verticaux sont restituées tous les dix centimètres, selon les axes transversal et longitudinal, du fait de l'important pendage des couches et de la densité du matériel archéologique. L'étude de ces dernières a permis la mise en évidence des niveaux archéologiques h, i, i/j, j, k, l et des sols d'occupation h1, h2, h3, i1, i2, j, k, l. Les sols d'occupation sont les plus petites entités mises en évidence. Ils correspondent aux différentes occupations humaines, c'est pourquoi ils servent de point de départ a la répartition spatiale en plan du matériel archéologique. Il a ainsi été possible de visualiser, pour la première fois, en coupes et en plans, les sols d'occupation de la séquence inferieure du complexe moyen de la caune de l’Arago.
29

Michon, Philippe. "Vers une nouvelle architecture de l'information historique : L'impact du Web sémantique sur l'organisation du Répertoire du patrimoine culturel du Québec". Mémoire, Université de Sherbrooke, 2016. http://hdl.handle.net/11143/8776.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Le Plan culturel numérique du Québec (PCNQ) souligne l’importance pour le domaine culturel québécois, auquel participe étroitement les historiens, de s’intéresser aux possibilités du Web sémantique. Dans cette idée, ce mémoire étudie les avantages et les inconvénients de l’association entre le Web sémantique et l’histoire. D’un côté, on retrouve une nouvelle configuration du Web sous forme de données liées qui tente de s’inscrire dans un cadre pratique et, de l’autre, une discipline qui souhaite comprendre et préserver les faits passés. La réunion des deux concepts nécessite une implication interdisciplinaire entre programmeurs, professionnels en sciences de l’information et historiens. Face à ce travail interdisciplinaire, quels sont les enjeux et le rôle de l’historien dans le développement d’une plate-forme sémantique sur le patrimoine québécois? Pour répondre à cette question, ce mémoire explique les liens étroits qui existent entre la discipline historique et les données liées. Après avoir défini un ensemble de concepts fondateurs tels que le Resource Description Framework (RDF), l’Uniform Resource Identifier (URI), les fichiers d’autorité et les ontologies, ce mémoire associe un corpus de personnes du Répertoire du patrimoine culturel du Québec (RPCQ) avec DBpedia, un joueur majeur du Web sémantique. Cette démonstration explique comment le patrimoine québécois s’articule dans le nuage des données liées. De cette expérimentation découle deux constats qui démontrent l’importance de l’implication historienne dans une structure sémantique. Le Québec n’a pas d’autorité sur ses propres données et on ne retrace actuellement que la grande histoire du Québec sans entrer dans ses particularités.
30

Ben, Taleb Romain. "Modélisation et optimisation des actifs pour l'aide à la prise de décision stratégique dans les entreprises". Electronic Thesis or Diss., Ecole nationale des Mines d'Albi-Carmaux, 2024. http://www.theses.fr/2024EMAC0001.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Les outils et méthodes d'aide à la décision stratégique, notamment utilisés dans les PME, font face à plusieurs limites. On note qu'ils sont essentiellement déterministes, basés sur des données passées, et sont cadrés par une approche quasi exclusivement comptable et financière. Pourtant, les décisions stratégiques en entreprise sont des activités tournées vers le futur, fortement soumis à incertitude qui visent à maximiser la valeur générée de l'entreprise qu'elle soit financière ou non. Dans ce contexte, la question de recherche adressée dans cette thèse est comment aider les dirigeants d'entreprise à prendre des décisions stratégiques prospectives dans un contexte soumis à une incertitude ? En termes de contributions, nous proposons d'abord un cadre conceptuel basé sur méta-modèle qui permet de représenter une entreprise selon une logique d'actifs et de valeur. Cette modélisation est ensuite enrichie d'un diagramme de causalité qui établit la dynamique existante entre les actifs permettant de créer de la valeur. Pour illustrer l'applicabilité de ce cadre conceptuel, on propose une approche par plan d'expériences basée sur un modèle de simulation d'une part, et un modèle d'optimisation en Programmation Mixte en Nombres Entiers d'autre part. Un ensemble d'expérimentations permet de valider la pertinence de la proposition et notamment d'identifier les conséquences des décisions prises sur chaque actif en matière de valeur générée pour l'entreprise
The tools and methods used to assist in strategic decision-making, particularly in SMEs, face several limitations. It is observed that they are primarily deterministic, based on past data, and are framed by an approach that is almost exclusively accounting and financial. However, strategic decisions in a company are activities aimed towards the future, highly subject to uncertainty, which aim to maximize the generated value of the company, whether it is financial or not. In this context, the research question addressed in this thesis is how to assist business leaders in making prospective strategic decisions in a context subject to uncertainty ? In terms of contributions, we first propose a conceptual framework based on a meta-model that allows representing a company according to a logic of assets and value. This modeling is then enriched with a causality diagram that establishes the existing dynamics between the assets that create value. To illustrate the applicability of this conceptual framework, an approach is proposed using experimental design based on a simulation model on one hand, and an optimization model in Mixed Integer Programming on the other hand. A set of experiments validates the relevance of the proposal, notably identifying the consequences of the decisions made on each asset in terms of generated value for the company
31

Schramm, Catherine. "Intégration des facteurs prédictifs de l'effet d'un traitement dans la conception et l'analyse des essais cliniques de petite taille : application à la maladie de Huntington". Thesis, Paris 6, 2016. http://www.theses.fr/2016PA066610/document.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
La maladie de Huntington est neurodégénérative, génétique, rare, multifacette et de durée d'évolution longue, induisant une grande. Les biothérapies en cours d'essai sont réalisées sur des petits effectifs, avec un effet mesurable à long terme et hétérogène. Identifier des marqueurs d'évolution de la maladie et de réponse au traitement permettrait de mieux comprendre et d'améliorer les résultats des futurs essais cliniques. Nous avons développé une méthode de clustering pour l'efficacité d'un traitement dans le cadre de données longitudinales afin de définir des répondeurs et non répondeurs au traitement. Notre méthode, robuste pour les petits effectifs, combine un modèle linéaire mixte à deux pentes et un algorithme de clustering. Le modèle mixte génère des effets aléatoires, associés à la réponse au traitement, propres à chaque patient. L'algorithme de clustering permet de définir des sous-groupes selon la valeur des effets aléatoires. Trouver des sous-groupes de patients répondeurs permet de définir des marqueurs prédictifs de la réponse au traitement qui seront utilisés pour donner le traitement le mieux adapté à chaque patient. Nous avons discuté de l'intégration (i) des marqueurs prédictifs dans les plans expérimentaux des essais cliniques, en évaluant leur impact sur la puissance de l'étude; et (ii) des marqueurs pronostiques, en étudiant l¿impact du polymorphisme COMT sur le déclin cognitif des patients. Enfin, nous avons évalué l'effet d'apprentissage des tests neuropsychologiques, et montré comment une double évaluation à l'inclusion dans un essai clinique permettait de s'en affranchir quand le critère de jugement principal est le déclin cognitif
Huntington's disease is neurodegenerative, genetic, rare, multifaceted and has a long evolution, inducing heterogeneity of conditions and progression of the disease. Current biotherapy trials are performed on small samples of patients, with a treatment effect measurable in the long-term that is heterogeneous. Identifying markers of the disease progression and of the treatment response may help to better understand and improve results of biotherapy studies in Huntington's disease. We have developed a clustering method for the treatment efficacy in the case of longitudinal data in order to identify treatment responders and nonresponders. Our method combines a linear mixed model with two slopes and a classical clustering algorithm. The mixed model generates random effects associated with treatment response, specific to each patient. The clustering algorithm is used to define subgroups according to the value of the random effects. Our method is robust in case of small samples. Finding subgroups of responders may help to define predictive markers of treatment response which will be used to give the most appropriate treatment for each patient. We discussed integration of (i) the predictive markers in study design of future clinical trials, assessing their impact on the power of the study; and (ii) the prognostic markers of disease progression by studying the COMT polymorphism as a prognostic marker of cognitive decline in Huntington's disease. Finally, we evaluated the learning effect of neuropsychological tasks measuring cognitive abilities, and showed how a double baseline in a clinical trial could take it into account when the primary outcome is the cognitive decline
32

Idris, Jamal. "Accidents géotechniques des tunnels et des ouvrages souterrains - Méthodes analytiques pour le retour d'expérience et la modélisation numérique". Thesis, Vandoeuvre-les-Nancy, INPL, 2007. http://www.theses.fr/2007INPL070N/document.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
L'instabilité des ouvrages souterrains est une cause importante d'accidents tant pendant leur réalisation que pendant leur exploitation. La rétro-analyse d'accidents passés est l'une des méthodes permettant d'améliorer la prévention de tels accidents ainsi que la conception et le dimensionnement des nouveaux projets. Une recherche bibliographique a permis d'établir une base de données de cas d'accidents rencontrés dans les ouvrages souterrains à travers le monde. Ces cas, actuellement au nombre de 230, concernent les phases de construction et d'exploitation d’ouvrages, chaque cas étant caractérisé par plusieurs variables associées aux phénomènes d'instabilité et aux caractéristiques géométriques et géomécaniques de l’ouvrage. Les causes et les conséquences d’instabilités ont été également analysées dont celles liées au contexte géologique et en particulier aux caractéristiques géotechniques des terrains traversés. Cette base de données a permis d’effectuer plusieurs analyses sur les instabilités des ouvrages dont la plus importante est une analyse factorielle de correspondances qui a éclairé les liaisons entres les phénomènes d’instabilités et les différentes modalités de ses variables explicatives. Cette étude propose deux modèles numériques représentatifs des tunnels maçonnés, appuyant sur la modélisation numérique et la technique des plans d’expériences elle porte également sur l’analyse du comportement mécanique de la structure du soutènement en maçonnerie et son évolution en fonction de temps où l’influence des certains paramètres mécaniques du soutènement en maçonnerie a été quantifiée et évaluée par différentes méthodes d’analyses dont l’analyse de la variance et la modélisation par régression multiple
The instability of the underground works is an important cause of many accidents during their construction and exploitation. Experience feedback of previous accidents is one of used methods that allows improving the prevention of such accidents during the design and the construction of new underground works projects. A bibliographical search enabled us to establish a database of tunnels and underground constructions accidents in the world. These database contains currently 230 case related to the two phases of construction and exploitation of underground constructions, each case was characterized by several variables associated to instability phenomena, to geometrical and géomechanicals characteristics of the concerned underground construction. The causes and the consequences of instabilities phenomena were also analysed especially those related to the particular geological context and the géotechnical characteristics of the surrounding ground. The established database enabled us to carry out several analyses on instabilities phenomena like as a factorial correspondence analysis, which aims to discover the relations between instabilities phenomena and their explanatory variables. This study proposes two representative numerical models of vaulted tunnels supported by masonry structure. Biased on the numerical simulation and the experimental design technique, it also relates to the analysis of the mechanical behaviour of the masonry structure support and its evolution in the time, where the influence of certain mechanical parameters of masonry structure was quantified and evaluated by various analyses methods such as multivariate variance analysis and the linear modelling by multiple regression
33

Rojas, Castro Dalia Marcela. "The RHIZOME architecture : a hybrid neurobehavioral control architecture for autonomous vision-based indoor robot navigation". Thesis, La Rochelle, 2017. http://www.theses.fr/2017LAROS001/document.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Les travaux décrits dans cette thèse apportent une contribution au problème de la navigation autonome de robots mobiles dans un contexte de vision indoor. Il s’agit de chercher à concilier les avantages des différents paradigmes d’architecture de contrôle et des stratégies de navigation. Ainsi, nous proposons l’architecture RHIZOME (Robotic Hybrid Indoor-Zone Operational ModulE) : une architecture unique de contrôle robotique mettant en synergie ces différentes approches en s’appuyant sur un système neuronal. Les interactions du robot avec son environnement ainsi que les multiples connexions neuronales permettent à l’ensemble du système de s’adapter aux conditions de navigation. L’architecture RHIZOME proposée combine les avantages des approches comportementales (e.g. rapidité de réaction face à des problèmes imprévus dans un contexte d’environnement dynamique), et ceux des approches délibératives qui tirent profit d’une connaissance a priori de l’environnement. Cependant, cette connaissance est uniquement exploitée pour corroborer les informations perçues visuellement avec celles embarquées. Elle est représentée par une séquence de symboles artificiels de navigation guidant le robot vers sa destination finale. Cette séquence est présentée au robot soit sous la forme d’une liste de paramètres, soit sous la forme d’un plan. Dans ce dernier cas, le robot doit extraire lui-même la séquence de symboles à suivre grâce à une chaine de traitements d’images. Ainsi, afin de prendre la bonne décision lors de sa navigation, le robot traite l’ensemble de l’information perçue, la compare en temps réel avec l’information a priori apportée ou extraite, et réagit en conséquence. Lorsque certains symboles de navigation ne sont plus présents dans l’environnement de navigation, l’architecture RHIZOME construit de nouveaux lieux de référence à partir des panoramas extraits de ces lieux. Ainsi, le robot, lors de phases exploratoires, peut s’appuyer sur ces nouvelles informations pour atteindre sa destination finale, et surmonter des situations imprévues. Nous avons mis en place notre architecture sur le robot humanoïde NAO. Les résultats expérimentaux obtenus lors d’une navigation indoor, dans des scenarios à la fois déterministes et stochastiques, montrent la faisabilité et la robustesse de cette approche unifiée
The work described in this dissertation is a contribution to the problem of autonomous indoor vision-based mobile robot navigation, which is still a vast ongoing research topic. It addresses it by trying to conciliate all differences found among the state-of-the-art control architecture paradigms and navigation strategies. Hence, the author proposes the RHIZOME architecture (Robotic Hybrid Indoor-Zone Operational ModulE) : a unique robotic control architecture capable of creating a synergy of different approaches by merging them into a neural system. The interactions of the robot with its environment and the multiple neural connections allow the whole system to adapt to navigation conditions. The RHIZOME architecture preserves all the advantages of behavior-based architectures such as rapid responses to unforeseen problems in dynamic environments while combining it with the a priori knowledge of the world used indeliberative architectures. However, this knowledge is used to only corroborate the dynamic visual perception information and embedded knowledge, instead of directly controlling the actions of the robot as most hybrid architectures do. The information is represented by a sequence of artificial navigation signs leading to the final destination that are expected to be found in the navigation path. Such sequence is provided to the robot either by means of a program command or by enabling it to extract itself the sequence from a floor plan. This latter implies the execution of a floor plan analysis process. Consequently, in order to take the right decision during navigation, the robot processes both set of information, compares them in real time and reacts accordingly. When navigation signs are not present in the navigation environment as expected, the RHIZOME architecture builds new reference places from landmark constellations, which are extracted from these places and learns them. Thus, during navigation, the robot can use this new information to achieve its final destination by overcoming unforeseen situations.The overall architecture has been implemented on the NAO humanoid robot. Real-time experimental results during indoor navigation under both, deterministic and stochastic scenarios show the feasibility and robustness of the proposed unified approach
34

Manzon, Diane. "Développement de nouveaux outils en plans d'expériences adaptés à l'approche quality by design (QbD) dans un contexte biologique". Electronic Thesis or Diss., Aix-Marseille, 2021. http://www.theses.fr/2021AIXM0223.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
L’approche quality by design (QbD) est un concept récent initié par le contrôle qualité qui a conduit à de nouvelles exigences de la part des autorités règlementaires, en particulier dans l'industrie pharmaceutique. Parmi celles-ci, la directive ICHQ8 explique que la qualité ne doit pas être testée sur les produits finis mais doit être intégrée tout au long, de la conception au produit fini. Cette approche se caractérise par différentes étapes dont l’une consiste à évaluer les risques, ce qui revient principalement à identifier les paramètres critiques dans un procédé ou une formulation. Pour cela, des expérimentations doivent être menées et des plans d’expériences adéquats vont permettre de modéliser les phénomènes étudiés pour ensuite représenter des surfaces de réponse dans l’espace expérimental à explorer. Dans cet espace, la Food and Drug Administration recommande de délimiter un sous-espace, appelé "Design Space", caractérisé par une certaine probabilité que les paramètres de sortie respectent les spécifications du cahier des charges. Ce Design Space a généralement une forme géométrique quelconque, ce qui signifie que la plage de variation acceptable d’un paramètre va dépendre de la valeur d’un autre paramètre. Pour remédier à cette contrainte et ainsi définir des "Proven Acceptable Independent Range" pour chaque paramètre étudié, nous avons utilisé et adapté différentes méthodes. Leurs performances respectives, quant à la définition de domaines de variation acceptables pour chaque paramètre indépendamment, ont été testées sur différents cas d’étude
The quality by design (QbD) approach is a recent concept initiated by quality control which has led to new requirements from regulatory authorities, particularly in the pharmaceutical industry. Among these, the guideline ICHQ8 explains that quality should not be tested on finished products but should be integrated throughout, from design to finished product. This approach is characterised by different steps, one of which is risk assessment, which mainly involves identifying the critical parameters in a process or formulation. To do this, experiments must be carried out and suitable experimental designs will enable the phenomena studied to be modelled and then represent response surfaces in the experimental space to be explored. In this space, the Food and Drug Administration recommends delimiting a sub-space, called "Design Space", characterised by a certain probability that the output parameters comply with the specifications. This Design Space usually has any geometric shape, which means that the acceptable variation range of a parameter will depend on the value of another parameter. To overcome this constraint and thus define "Proven Acceptable Independent Range" for each parameter studied, we have used and adapted different methods. Their respective performance, in terms of defining acceptable variation range for each parameter independently, has been tested in different case studies
35

Hossain, Mohaimenul. "Green Metrics to Improve Sustainable Networking". Electronic Thesis or Diss., Université de Lorraine, 2019. http://www.theses.fr/2019LORR0201.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Le monde actuel reposant sur une économie et des activités personnelles de plus en plus digitalisées a pour conséquence que la quantité d’information circulant à travers internet ne cesse de croître d’année en année. Les architectures de communication doivent être dimensionnées en conséquence, voire surdimensionnées pour anticiper les besoins futurs ou pour pallier des pics de trafic ou encore des défaillances éventuelles. À cela s’ajoute des systèmes de refroidissement pour garantir le bon fonctionnement des équipements d’interconnexion. Aussi, actuellement les réseaux représentent 20\% de la consommation d’énergie de la sphère numérique sachant que si cette sphère était un pays, elle sera au cinquième rang des pays en terme de consommation d’énergie. Il est donc essentiel de trouver des stratégies d’optimisation considérant à la fois cette consommation tout en maintenant la Qualité de Services exigée par les utilisateurs de l’internet. Cette thèse propose tout d’abord un premier un algorithme de routage permettant de réduire l’électricité nécessaire pour alimenter le réseau en utilisant deux mécanismes : l’endormissement des nœuds et l’adaptation des débits des lignes de transmission. Le problème étant NP difficile, des algorithmes génétiques sont employés. Les résultats montrent l’intérêt de cette approche sur le réseau Européen Géant-2 et cela en se reposant sur des architectures SDN (Software Defined Network). Cependant, une optimisation basée uniquement sur l’électricité peut être une vue tronquée sur l’impact environnemental de l’internet. Dans la suite de cette thèse, le type d’énergie utilisé pour produire l’électricité a été pris en compte pour analyser le routage selon deux autres indicateurs : le taux d’énergie renouvelable et le taux d’émission carbone. Les algorithmes ainsi développés sont de nouveau appliqués à Géant-2 pour illustrer l’incidence de ces nouveaux indicateurs sur le routage. Finalement, la reconfiguration du plan de contrôle du réseau doit se faire au rythme de l’évolution du trafic. Mais cela peut générer une instabilité du système de communication et donc une rupture de Qualité de Service. Aussi, des mécanismes de filtrage et de pénalité sont introduits dans les précédents algorithmes pour éliminer des changements intempestifs de reconfiguration néfastes au maintien global de la performance du réseau
Achieving energy efficiency has in recent times become a major concern of networking research due to the ever-escalating power consumption and CO2 emissions produced by large data networks. This problem is becoming more and more challenging because of the drastic traffic increase in the last few years and it is expected to be increased even more in the coming years. Using efficient energy-aware strategies that could overturn this situation by reducing the electricity consumption as well as mitigating the environmental impact of data transmission networks. However, CO2 and energy consumption cannot be considered proportionate if the means of electricity production differs. This research work focuses on reducing the environmental impact of data transmission network by implementing energy aware routing, where unused network devices will be put into sleep/shut down and high capacity links will be adapted according to demand requirement. But, alongside with energy, this work has introduced two different metrics namely carbon emission factor and non-renewable energy usage percentage, which are considered as objective functions for designing green network. Here a centralized approach like using Software-Defined Networking (SDN), is used for designing to solve this problem as they allow flexible programmability suitable for this problem. Our proposal proposes a routing technique using genetic algorithm that minimizes the number of network-elements required and at the same time adapt the bandwidth capacity while satisfying an incoming traffic load. Different from existing related works, we focus on optimizing not only energy consumption but also carbon emission and non-renewable energy consumption in SDN in order to close this important gap in the literature and provide solutions compatible with operational backbone networks. Complementing the general aim of improving the environmental impact of data transmission network, this research is also intended to cover important related features such as realistic large demand size, network performance, and Quality of Service (QoS) requirements. At the same time this work focuses on network stability and analyzes the impact of network stability while implementing a green solution. Our work proposes a penalty and filtering mechanism which helps to find an optimal balance between stability and green networking. By using realistic input data, significant values of switched-off links and nodes are reached which demonstrate the effectiveness of our algorithm. The obtained result validated the importance of considering environmental factors rather than considering only energy. Results also show the trade-off between environmental and performance concerns, considering a couple of performance indicators. Moreover, it is shown that the penalty and filtering mechanism is an effective approach to avoid incoherent system and improve the stability of the system. As a whole, this conducted research and contributions reported through this manuscript stand as a valuable solution on the road to sustainable networking
36

Lardin, Pauline. "Estimation de synchrones de consommation électrique par sondage et prise en compte d'information auxiliaire". Phd thesis, Université de Bourgogne, 2012. http://tel.archives-ouvertes.fr/tel-00842199.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Dans cette thèse, nous nous intéressons à l'estimation de la synchrone de consommation électrique (courbe moyenne). Etant donné que les variables étudiées sont fonctionnelles et que les capacités de stockage sont limitées et les coûts de transmission élevés, nous nous sommes intéressés à des méthodes d'estimation par sondage, alternatives intéressantes aux techniques de compression du signal. Nous étendons au cadre fonctionnel des méthodes d'estimation qui prennent en compte l'information auxiliaire disponible afin d'améliorer la précision de l'estimateur de Horvitz-Thompson de la courbe moyenne de consommation électrique. La première méthode fait intervenir l'information auxiliaire au niveau de l'estimation, la courbe moyenne est estimée à l'aide d'un estimateur basé sur un modèle de régression fonctionnelle. La deuxième l'utilise au niveau du plan de sondage, nous utilisons un plan à probabilités inégales à forte entropie puis l'estimateur de Horvitz-Thompson fonctionnel. Une estimation de la fonction de covariance est donnée par l'extension au cadre fonctionnel de l'approximation de la covariance donnée par Hájek. Nous justifions de manière rigoureuse leur utilisation par une étude asymptotique. Pour chacune de ces méthodes, nous donnons, sous de faibles hypothèses sur les probabilités d'inclusion et sur la régularité des trajectoires, les propriétés de convergence de l'estimateur de la courbe moyenne ainsi que de sa fonction de covariance. Nous établissons également un théorème central limite fonctionnel. Afin de contrôler la qualité de nos estimateurs, nous comparons deux méthodes de construction de bande de confiance sur un jeu de données de courbes de charge réelles. La première repose sur la simulation de processus gaussiens. Une justification asymptotique de cette méthode sera donnée pour chacun des estimateurs proposés. La deuxième utilise des techniques de bootstrap qui ont été adaptées afin de tenir compte du caractère fonctionnel des données
37

Couffignal, Camille. "Variabilité de la réponse pharmacologique, modélisation et influence des plans expérimentaux". Electronic Thesis or Diss., Université Paris Cité, 2021. http://www.theses.fr/2021UNIP5250.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Le nombre croissant de patients ayant une maladie chronique, pour la plupart assujettis à la prise d’un traitement au long terme, justifie l’exploration et la caractérisation des facteurs phénotypiques et génétiques de la réponse pharmacologique. L’identification et l’estimation de la variabilité pharmacocinétique-pharmacodynamique impliquée dans la réponse à un traitement sont des étapes indispensables de cette exploration pour aboutir à une médecine de précision. Nous avons étudié la réintroduction des β-bloquants après chirurgie cardiaque dans une cohorte multicentrique prospective conduite chez des patients recevant un traitement chronique par β-bloquants et ayant subi une chirurgie cardiaque. Avec une analyse par landmark, nous avons montré l’efficacité, sur la prévention de la survenue de fibrillation auriculaire, de la réintroduction de β-bloquants 72h après chirurgie cardiaque. Nous avons modélisé, par approche de population, les données de concentration sérique, érythrocytaire et urinaire du lithium à libération prolongé administré en une prise par jour chez des patients bipolaires sous traitement depuis au moins deux ans. Un protocole de recherche clinique a ensuite été rédigé, avec une optimisation des temps de prélèvements, basée sur le modèle pharmacocinétique obtenu, pour caractériser les variabilités inter- et intra-individuelles et identifier les facteurs prédictifs de la réponse prophylactique au lithium. Nous avons évalué, par simulation, l'impact du plan expérimental croisé par rapport au plan parallèle, ainsi que le choix du modèle statistique d’analyse, pour des études pharmacogénétiques évaluant deux traitements (candidat et référence) lorsqu'un polymorphisme génétique augmente ou non l’efficacité du traitement candidat par rapport à la référence. Les résultats de cette étude de simulation montrent que le choix du modèle d'abord, puis le choix du plan expérimental ensuite affectent fortement non seulement l’erreur de type I et la puissance de détecter une interaction gène-traitement, mais aussi l'attribution correcte du traitement. Ces travaux confortent la nécessité d’utiliser des outils statistiques et des plans expérimentaux adéquats dans l’analyse d’un essai clinique ou d’une étude pharmaco-épidémiologique pour caractériser et quantifier la variabilité de la réponse pharmacologique
The increasing number of patients with chronic diseases, most of whom are subject to long-term treatment, justifies the exploration and characterisation of phenotypic and genetic factors of pharmacological response. The identification and estimation of the pharmacokinetic-pharmacodynamic variability involved in the response to a treatment are essential steps in this exploration to achieve precision medicine. We studied the re-introduction of β-blockers after cardiac surgery in a prospective multicentre cohort of patients receiving chronic β-blocker therapy and who underwent cardiac surgery. With a landmark analysis, we have shown the efficacy of reintroducing β-blockers 72 hours after cardiac surgery on the occurrence of atrial fibrillation. We modelled, using a population approach, the serum, erythrocyte and urine concentration data of once-daily sustained-release lithium in bipolar patients undergoing treatment for at least two years. A clinical research protocol was then written, with an optimization of sampling times, based on the pharmacokinetic model obtained, to characterise inter- and intra-individual variability and to identify predictive factors of the prophylactic response to lithium. We evaluated, by simulation, the impact of the crossover versus parallel design, as well as the choice of statistical model during the analysis, in pharmacogenetic studies evaluating two treatments (candidate and reference) when a genetic polymorphism increases or not the efficacy of the candidate treatment compared to the reference. The results of this simulation study show that the choice of the model and the choice of the experimental design strongly affect not only the type I error and the power to detect a gene-treatment interaction, but also the correct allocation of the treatment. This work reinforces the need to use adequate statistical tools and experimental designs in the analysis of a clinical trial or pharmacoepidemiological study to characterize and quantify the variability of the pharmacological response
38

Seddiki, Sélim. "Contribution au développement du détecteur de Vertex de l'expérience CBM et étude de faisabilité des mesures du flot elliptique des particules à charme ouvert". Phd thesis, Université de Strasbourg, 2012. http://tel.archives-ouvertes.fr/tel-00862654.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
CBM, une des expériences majeures du nouvel accélérateur FAIR en cours de construction au GSI (Darmstadt), a pour objectif d'explorer le diagramme des phases de la matière nucléaire dans la région des hautes densités baryoniques nettes. Un de ses principaux thèmes de physique est l'étude de la production des particules à charme ouvert dans les collisions d'ions lourds. La mesure directe de ces particules nécessite l'utilisation d'un détecteur de vertex très précis. La présente thèse est une contribution à la conception et au développement de ce détecteur, appelé MVD. Une première partie de la thèse concerne l'évaluation, à l'aide de simulations réalistes, des flots de données à transmettre par les capteurs qui équiperont la première génération du MVD. Les résultats obtenus montrent que les performances attendues des capteurs permettront de mener à bien le programme de physique de CBM. Une deuxième partie porte sur les performances attendues pour la reconstruction des particules à charme ouvert, à travers leur désintégration hadronique, dans les collisions Au+Au. Des simulations détaillées ont permis de démontrer que la reconstruction du méson D+ → π+ π+ K-, par exemple, est faisable avec une efficacité de reconstruction de 2% et un rapport signal/bruit de 1.5. La statistique attendue en deux mois de prises de données a été évaluée à environ 6.9 x 104 mésons D. Dans la dernière partie, il a été montré que cette statistique permettrait d'effectuer des études détaillées du flot elliptique intégré des mésons D. La mesure du flot elliptique différentiel de ces particules requerrait, cependant, des statistiques plus élevées, et donc l'utilisation de capteurs plus performants.
39

Lelo, Emmanuel Bernard. "Problème des données manquantes dans un plan d'analyse de variance à mesures répétées". Thèse, 2003. http://hdl.handle.net/1866/14582.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
40

Michal, Victoire. "Estimation multi-robuste efficace en présence de données influentes". Thèse, 2019. http://hdl.handle.net/1866/22553.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
41

Vallée, Audrey-Anne. "Estimation de la variance en présence de données imputées pour des plans de sondage à grande entropie". Thèse, 2014. http://hdl.handle.net/1866/11120.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Les travaux portent sur l’estimation de la variance dans le cas d’une non- réponse partielle traitée par une procédure d’imputation. Traiter les valeurs imputées comme si elles avaient été observées peut mener à une sous-estimation substantielle de la variance des estimateurs ponctuels. Les estimateurs de variance usuels reposent sur la disponibilité des probabilités d’inclusion d’ordre deux, qui sont parfois difficiles (voire impossibles) à calculer. Nous proposons d’examiner les propriétés d’estimateurs de variance obtenus au moyen d’approximations des probabilités d’inclusion d’ordre deux. Ces approximations s’expriment comme une fonction des probabilités d’inclusion d’ordre un et sont généralement valides pour des plans à grande entropie. Les résultats d’une étude de simulation, évaluant les propriétés des estimateurs de variance proposés en termes de biais et d’erreur quadratique moyenne, seront présentés.
Variance estimation in the case of item nonresponse treated by imputation is the main topic of this work. Treating the imputed values as if they were observed may lead to substantial under-estimation of the variance of point estimators. Classical variance estimators rely on the availability of the second-order inclusion probabilities, which may be difficult (even impossible) to calculate. We propose to study the properties of variance estimators obtained by approximating the second-order inclusion probabilities. These approximations are expressed in terms of first-order inclusion probabilities and are usually valid for high entropy sampling designs. The results of a simulation study evaluating the properties of the proposed variance estimators in terms of bias and mean squared error will be presented.

Vai alla bibliografia