To see the other types of publications on this topic, follow the link: Co-Réseaux.

Dissertations / Theses on the topic 'Co-Réseaux'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 dissertations / theses for your research on the topic 'Co-Réseaux.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Janbain, Ali. "Utilisation d'algorithmes génétiques pour l'identification systématique de réseaux de gènes co-régulés." Thesis, Montpellier, 2019. http://www.theses.fr/2019MONTT019/document.

Full text
Abstract:
L’objectif de ce travail est de mettre au point une nouvelle approche automatique pour identifier les réseaux de gènes concourant à une même fonction biologique. Ceci permet une meilleure compréhension des phénomènes biologiques et notamment des processus impliqués dans les maladies telles que les cancers. Différentes stratégies ont été développées pour essayer de regrouper les gènes d’un organisme selon leurs relations fonctionnelles : génétique classique et génétique moléculaire. Ici, nous utilisons une propriété connue des réseaux de gènes fonctionnellement liés à savoir que ces gènes sont généralement co-régulés et donc co-exprimés. Cette co-régulation peut être mise en évidence par des méta-analyses de données de puces à ADN (micro-arrays) telles que Gemma ou COXPRESdb. Dans un travail précédent [Al Adhami et al., 2015], la topologie d’un réseau de co-expression de gènes a été caractérisé en utilisant deux paramètres de description des réseaux qui discriminent des groupes de gènes sélectionnés aléatoirement (modules aléatoires, RM) de groupes de gènes avec des liens fonctionnels connus (modules fonctionnels, FM), c’est-à-dire des gènes appartenant au même processus biologique GO. Dans le présent travail, nous avons cherché à généraliser cette approche et à proposer une méthode, appelée TopoFunc, pour améliorer l’annotation existante de la fonction génique. Nous avons d’abord testé différents descripteurs topologiques du réseau de co-expression pour sélectionner ceux qui identifient le mieux des modules fonctionnels. Puis, nous avons constitué une base de données rassemblant des modules fonctionnels et aléatoires, pour lesquels, sur la base des descripteurs sélectionnés, nous avons construit un modèle de discrimination LDA [Friedman et al., 2001] permettant, pour un sous-ensemble de gènes donné, de prédire son type (fonctionnel ou non). Basée sur la méthode de similarité de gènes travaillée par Wang et ses collègues [Wang et al., 2007], nous avons calculé un score de similarité fonctionnelle entre les gènes d’un module. Nous avons combiné ce score avec celui du modèle LDA dans une fonction de fitness implémenté dans un algorithme génétique (GA). À partir du processus biologique d’ontologie de gènes donné (GO-BP), AG visait à éliminer les gènes faiblement co-exprimés avec la plus grande clique de GO-BP et à ajouter des gènes «améliorant» la topologie et la fonctionnalité du module. Nous avons testé TopoFunc sur 193 GO-BP murins comprenant 50-100 gènes et avons montré que TopoFunc avait agrégé un certain nombre de nouveaux gènes avec le GO-BP initial tout en améliorant la topologie des modules et la similarité fonctionnelle. Ces études peuvent être menées sur plusieurs espèces (homme, souris, rat, et possiblement poulet et poisson zèbre) afin d’identifier des modules fonctionnels conservés au cours de l’évolution
The aim of this work is to develop a new automatic approach to identify networks of genes involved in the same biological function. This allows a better understanding of the biological phenomena and in particular of the processes involved in diseases such as cancers. Various strategies have been developed to try to cluster genes of an organism according to their functional relationships : classical genetics and molecular genetics. Here we use a well-known property of functionally related genes mainly that these genes are generally co-regulated and therefore co-expressed. This co-regulation can be detected by microarray meta-analyzes databases such as Gemma or COXPRESdb. In a previous work [Al Adhami et al., 2015], the topology of a gene coexpression network was characterized using two description parameters of networks that discriminate randomly selected groups of genes (random modules, RM) from groups of genes with known functional relationship (functional modules, FM), e.g. genes that belong to the same GO Biological Process. We first tested different topological descriptors of the co-expression network to select those that best identify functional modules. Then, we built a database of functional and random modules for which, based on the selected descriptors, we constructed a discrimination model (LDA)[Friedman et al., 2001] allowing, for a given subset of genes, predict its type (functional or not). Based on the similarity method of genes worked by Wang and co-workers [Wang et al., 2007], we calculated a functional similarity score between the genes of a module. We combined this score with that of the LDA model in a fitness function implemented in a genetic algorithm (GA). Starting from a given Gene Ontology Biological Process (GO-BP), AG aimed to eliminate genes that were weakly coexpressed with the largest clique of the GO-BP and to add genes that "improved" the topology and functionality of the module. We tested TopoFunc on the 193 murine GO-BPs comprising 50-100 genes and showed that TopoFunc aggregated a number of novel genes to the initial GO-BP while improving module topology and functional similarity. These studies can be conducted on several species (humans, mice, rats, and possibly chicken and zebrafish) to identify functional modules preserved during evolution
APA, Harvard, Vancouver, ISO, and other styles
2

Roth, Camille. "Co-évolution dans les Réseaux Epistémiques- Un exemple de reconstruction en sciences sociales." Phd thesis, Ecole Polytechnique X, 2005. http://tel.archives-ouvertes.fr/tel-00068958.

Full text
Abstract:
Des agents produisant, manipulant et échangeant des connaissances constituent un système complexe socio-sémantique, dont l'étude représente un défi à la fois théorique, dans la perspective d'étendre la naturalisation des sciences sociales, et pratique, avec des applications permettant aux agents de connaître la dynamique du système dans lequel ils évoluent.

Cette thèse se situe dans le cadre de ce programme de recherche. Parallèlement et plus largement, nous nous intéressons à la question de la reconstruction en sciences sociales. La reconstruction est un problème inverse comprenant deux volets complémentaires: (i) la déduction d'observations de haut-niveau à partir de phénomènes de bas-niveau; et (ii) la reproduction de l'évolution des observations de haut-niveau à partir de la dynamique des objets de bas-niveau.

Nous affirmons que plusieurs aspects significatifs de la structure d'une communauté de savoirs sont principalement produits par la dynamique d'un réseau épistémique où co-évoluent agents et concepts. En particulier, nous résolvons le premier volet du problème de la reconstruction en utilisant des treillis de Galois afin de recréer des taxonomies de communautés de savoirs à partir de simples relations entre agents et concepts; nous obtenons de fait une description historique se rapportant à la progression des champs, leur déclin, leur spécialisation ou leurs interactions (fusion ou scission). Nous micro-fondons ensuite la structure de ces communautés de savoirs en exhibant et en estimant empiriquement des processus d'interaction au niveau des agents, en co-évolution avec les concepts au sein du réseau épistémique, qui rendent compte de la morphogenèse et de l'émergence de plusieurs faits stylisés structurels de haut-niveau - il s'agit là du deuxième volet.

Nous défendons finalement un point de vue épistémologique concernant la méthodologique générale de reconstruction d'un système complexe qui appuie notre choix d'un cadre co-évolutionnaire.
APA, Harvard, Vancouver, ISO, and other styles
3

Baussand, Julie. "Evolution des séquences protéiques : signatures structurales hydrophobes et réseaux d'acides aminés co-évolués." Paris 6, 2008. http://www.theses.fr/2008PA066011.

Full text
APA, Harvard, Vancouver, ISO, and other styles
4

Sence, Johann. "Contribution au co-design et à la co-intégration de réseaux d’antennes actives multi-bandes pour systèmes de radionavigation par satellite." Thesis, Limoges, 2019. http://www.theses.fr/2019LIMO0087.

Full text
Abstract:
Ce travail de thèse s’inscrit dans le contexte actuel d’une très forte augmentation de la densité d’intégration des systèmes électroniques pour les équipements de communications, de localisation ou de surveillance. Le déploiement de ces systèmes doit aussi répondre à une demande croissante de flexibilité en termes de fréquences, de puissance ou de couverture. La flexibilité en fréquence peut être simultanée avec des dispositifs multi-bandes ou sélective par reconfiguration de la bande de fréquence. La flexibilité en puissance permet de minimiser la consommation du système et la flexibilité de couverture d’orienter le faisceau vers la cible afin d’optimiser le bilan de liaison ou au contraire se protéger d’une source de bruit. L’augmentation de l’efficacité et de la compacité passe par le regroupement de fonctions élémentaires (LNA/filtre/antenne) qui permet de réduire les étages d’interconnexion et de prendre en compte les interactions entre les différents éléments. L’objectif premier de ce projet est donc de développer une méthodologie de conception conjointe de l’antenne et des circuits associés (filtres et LNA) pour atteindre des performances (rayonnement, efficacité, etc.) optimales avec un dispositif intégré et compact
This work takesplace in the context of developingelectronic systems for communications equipment, localization or monitoringequipment with a high integration density. The deployment of these systems must also meet a growing demand for flexibility in terms of frequencies, power or coverage. The frequency flexibility can be simultaneous with multiband devices or selective by reconfiguring the frequency band. The power flexibility enables to minimize consumption of the system and the coverage flexibility to direct the beam to the target to optimize the budget link or otherwise protect a source of noise. The increase in efficiency and compactness passes through the combination of elementary functions (LNA / filter / antenna) that reduces interconnect floors and considering the interactions between the different elements. The primary objective of this project is to develop a co-design methodology of the antenna with the associated circuits (filters and LNA) to achieve optimal performances (radiation,efficiency, ...) with an integrated and compact device
APA, Harvard, Vancouver, ISO, and other styles
5

Razgani, Hasnae. "Réseaux sociaux et compétence de l’auditeur de terrain : le cas du cabinet Audit & Co." Paris 9, 2011. http://basepub.dauphine.fr/xmlui/handle/123456789/7376.

Full text
Abstract:
La compétence de l’auditeur a souvent été considérée dans la littérature comme une assurance de « la capacité de détection » sans prendre en compte la composante relationnelle. A partir d’une observation participante d’une durée de quatre ans au sein du cabinet Audit & Co, nous nous sommes intéressés à comprendre le lien entre un des fondements de la qualité de l’audit, à savoir la compétence, et le cabinet d’audit en tant qu’organisation sociale, en prenant comme cadre d’analyse la théorie des réseaux sociaux selon trois axes : le capital social, la confiance et la réputation. Les résultats de notre recherche permettent d’aller un peu plus loin que la vision traditionnelle et impersonnelle qu’offre l’approche classique de la compétence de l’auditeur, dans la mesure où le construit social par l’auditeur est aussi une compétence. Sur la base de ces résultats, nous considérons que la constitution d’un capital social conditionnée par la combinaison confiance-réputation, est déterminante pour l’évolution de la carrière de l’auditeur. Au-delà d’une compétence purement « technique », c’est sa compétence d’être socialement intégré dans un réseau qui lui promet davantage d’évoluer au sein du cabinet
The auditor’s competence has been considered in the literature as an insurance of “detection capability” without taking into account the relational component. From a participant observation of a period of four years within the Audit and Co firm, we are interested in understanding the link between one of the foundations of Audit quality, namely competence and the Audit firm as a social organization. Using as a framework for analyzing social network theory in three ways: social capital, trust and reputation. The results of our research allow to go a little further than the traditional and impersonal vision which offers classical approach of the auditor’s competence. Insofar the constitution of social capital, conditioned by the combination trust-reputation, is crucial for the evolution of the auditor career. Beyond a purely “technical ” competence, to be socially integrated in a network that allows to evolve more within the firm
APA, Harvard, Vancouver, ISO, and other styles
6

Mechraoui, Amine. "Co-conception d'un système commandé en réseau sans fil à l'aide de réseaux bayésiens distribués." Grenoble INPG, 2010. http://www.theses.fr/2010INPG0147.

Full text
Abstract:
Cette thèse traite le problème de la co-conception des systèmes commandés à travers un réseau sans fil (WNCS). L'intégration du réseau sans fil (WN) dans la boucle de commande influence la Qualité de Contrôle (QoC) du système en terme de la Qualité de Service (QoS) du réseau sans fil. Nous présentons une approche de co-conception basée sur des réseaux bayésiens distribués. Cette approche permet de prendre des décisions pour assurer une bonne QoC pour le robot et aussi faire en sorte que la QoS soit toujours suffisante pour maintenir une bonne QoC. Maintenir une QoS suffisante dépend de la méthode d'ordonnancement utilisée et donc l'approche proposée vise également à déterminer une méthode d'ordonnancement pour maintenir les performances du système. Nous proposons dans nos travaux d'utiliser des robots unicycles mobiles (Khepera III) comme benchmark pour tester nos approches et comparer les résultats de simulation avec les résultats de l'expérimentation
This thesis deals with the problem of co-design of Wireless Networked Control systems (WNCS). The integration of the Wireless Network (WN) in the control loop influences the Quality of Control (QoC) of the system in terms of the Quality of Service (QoS) of the WN. We present a co-design approach for WNCS based on distributed Bayesian Network (BN). The proposed BN is constructed from the experimental data of the Khepera III robot. This approach allows to make decisions to ensure a good QoC for the robot and also ensure that the QoS is always sufficient to maintain a good QoC. Keeping a sufficient QoS depends on the scheduling method used and therefore the proposed approach aims also to determine the proper method of scheduling to keep the system's performance
APA, Harvard, Vancouver, ISO, and other styles
7

Brunet, Anne-Claire. "Développement d'outils statistiques pour l'analyse de données transcriptomiques par les réseaux de co-expression de gènes." Thesis, Toulouse 3, 2016. http://www.theses.fr/2016TOU30373/document.

Full text
Abstract:
Les nouvelles biotechnologies offrent aujourd'hui la possibilité de récolter une très grande variété et quantité de données biologiques (génomique, protéomique, métagénomique...), ouvrant ainsi de nouvelles perspectives de recherche pour la compréhension des processus biologiques. Dans cette thèse, nous nous sommes plus spécifiquement intéressés aux données transcriptomiques, celles-ci caractérisant l'activité ou le niveau d'expression de plusieurs dizaines de milliers de gènes dans une cellule donnée. L'objectif était alors de proposer des outils statistiques adaptés pour analyser ce type de données qui pose des problèmes de "grande dimension" (n<
Today's, new biotechnologies offer the opportunity to collect a large variety and volume of biological data (genomic, proteomic, metagenomic...), thus opening up new avenues for research into biological processes. In this thesis, what we are specifically interested is the transcriptomic data indicative of the activity or expression level of several thousands of genes in a given cell. The aim of this thesis was to propose proper statistical tools to analyse these high dimensional data (n<
APA, Harvard, Vancouver, ISO, and other styles
8

Pieralisi, Lorenzo. "Modélisation de réseau de communication flexible pour les systèmes monopuces." Grenoble INPG, 2006. https://tel.archives-ouvertes.fr/tel-00164027.

Full text
Abstract:
Les systèmes monopuce deviennent de plus en plus complexes, intégrant composants à la fois logiciels et matériels dans le but de procurer una capacité de calcul croissante aux applications embarquées. L'interconnexion des composants devient un élément crucial de la conception ; le concept de réseau sur puce s'impose comme élément de communication pour les architectures d'interconnexion des systèmes de la prochaine génération. Les principales contributions de cette thèse sont représentées par : (1) le développement d'un simulateur de réseaux sur puce complet, (2) l'intégration de plusieurs environnements de simulation hétérogènes et (3) une connaissance complète des concepts sous-jacents aux réseaux sur puce qui a apporté une contribution importante au développement de STNoC, la nouvelle technologie d'interconnexion développée au sein de STMicroelectronics. L'environnement de modélisation réalisé a été utilisé pour l'étude de deux systèmes monopuce réels développés par STMicroelectronics orientés vers la télévision numérique à très haute définition (HDTV)
The Multi-Processors Systems on a chip (MPSoC) era is bringing about many new challenges for systems design in terms of computation and communication subsystems complexity. Interconnection systems became a pivotal component of the overall design, providing designers with advanced communication features such as split transactions, atomic operations and security adds-on. Momentum is building behind Networks on-chip (NoC) as future on-chip interconnection technology. Networks on-chip role is about to take over shared busses whose scalability properties are already a major bottleneck for system design. Modeling of on-chip network is an exacting work ; networks models must be fast, accurate and they have to sport standard interfaces. The main contributions of this work to networks on-chip design and implementation are : (1) the development of a brand new, full-fledged network on-chip simulator based on OCCN, an open-source framework for NoC modeling developed within sourceforge available at http://occn. Sourceforge. Net, (2) the successful integration of heterogeneous simulation environments in extremely complex platforms used to benchmark real STMicroelectronics SoCs and (3) thorough understanding and contribution to the design of STNoC, the new interconnection technology developed within AST Grenoble lab of STMicroelectronics for future generation systems. The modeling environment has been used to benchmark two STMicroelectronics systems on-chip for High Definition digital Television (HDTV)
APA, Harvard, Vancouver, ISO, and other styles
9

Zoghbi, Mohamad El. "Analyse électromagnétique et outils de modélisation couplés : Application à la conception hybride de composants et modules hyperfréquences." Limoges, 2008. https://aurore.unilim.fr/theses/nxfile/default/f3d13e75-6667-4684-84eb-37cfeebda8cc/blobholder:0/2008LIMO4044.pdf.

Full text
Abstract:
Nous proposons dans ce travail de thèse différentes méthodes de modélisation dédiées à l'optimisation rapide de modules hyperfréquences tout en tenant compte des phénomènes EM parasites : - une première approche dédiée à l'optimisation du packaging de module MCM qui allie les avantages de la simulation circuit et ceux de la simulation EM tout en limitant les inconvénients de cette dernière par l'utilisation de réseaux de neurones. - une deuxième approche hybride consacrée à l'optimisation rapide des caractéristiques des lignes quasi-TEM dans un environnement modulaire. - une troisième méthode de segmentation par accès numériques dédiée à la caractérisation de l'effet de couplage entre les différents éléments voisins d'un dispositif à combinaison spatiale de puissance. Enfin, nous décrivons comment il serait possible de modéliser le rayonnement de composants par surfaces de Huygens équivalente dans un environnement modulaire donné
In this thesis, we propose several methods dedicated to a rapid optimization of microwave modules while taking into account the EM parasites phenomena : - One of theses approaches is dedicated to the optimization of modules MCM packaging. It combines the advantages of circuit simulation and the EM simulation. The disadvantages of the latter are limited by using of neural networks. - A second hybrid approach is dedicated to a fast optimization of the characteristics of quasi-TEM lines in a modular environment. - A third method of segmentation by digital access is proposed to the characterization of the effect of coupling between adjacent elements on a combination of space power. Finally, we describe how it would be possible to model the radiation of components by equivalent Huygens surfaces in a modular environment
APA, Harvard, Vancouver, ISO, and other styles
10

Stil, Aurélie. "Contribution des co-transporteurs cation chlorure KCC2 et NKCC1, à la maturation et la modulation des réseaux locomoteurs spinaux." Thesis, Aix-Marseille 2, 2011. http://www.theses.fr/2011AIX20693.

Full text
Abstract:
Le cerveau et la moelle épinière adultes sont câblés pour traiter l’information sensorielle et la transformer en patrons d’activité cohérents qui forment la base de la perception du monde extérieur et de la motricité. Ces connexions très précises, loin d’être complètement établies à la naissance, sont affinées par l’activité électrique. Des activités spontanées (AS) peuvent être générées en l’absence de stimulation extrinsèque au système considéré. Au niveau de la moelle épinière, les AS sont responsables des mouvements spontanés et des tremblements myocloniques observés chez tous les mammifères immatures y compris chez l’humain. Elles constituent en quelque sorte les premiers pas du réseau locomoteur, ce qui signifie d’une part, qu’elles apparaissent avant l’émergence d’une activité de type locomotrice, et d’autre part, qu’elles participent à la mise en place et au raffinement d’un réseau moteur fonctionnel. La locomotion est générée par des réseaux de neurones localisés au niveau de la moelle épinière lombaire. Ces neurones constituent le générateur de rythme locomoteur (ou CPG, pour « central pattern generator »). Contrairement aux AS, l’activité locomotrice est déclenchée par une stimulation du réseau. Le patron locomoteur de décharges rythmiques est alterné de chaque côté de la moelle spinale, et entre les racines lombaires qui innervent des muscles extenseurs et fléchisseurs
The mature brain and spinal cord are precisely wired to process sensory information into coherent patterns of activity that form the basis of our perception and motor behaviors. This precise wiring is not fully developed at birth. The pattern of connections that emerges during prenatal development only roughly approximates the final wiring. This initially coarse pattern of connections is subsequently refined by activity-dependent mechanisms that match precisely the presynaptic neurons to their appropriate target cells. In spinal cord, spontaneous activity (SA) is responsible for spontaneous limb movements and myoclonic twitching observed in all immature mammals, including human babies. SA can be seen as the first steps of the locomotor network since its participates in the development of the locomotor system.Locomotion is produced by neural networks located in the spinal cord (Central Pattern Generators (CPGs). Activation of CPGs, evokes a fictive locomotor pattern consisting of alternation between the motor bursts on the left and right sides of the spinal cord, as well as alternation between flexor and extensor bursts on the same side. Operation of neural networks depends on the balance between excitation and inhibition. At early stages of development, neuronal assemblies are hyperexcitable mainly because of GABA and glycine, the major inhibitory neurotransmitters in adults,that are depolarizing. GABA and glycine action depends on the intracellular concentration of chloride ([Cl-]i) which is finely regulated by specific cation-chloride co-transporters, called KCC2 and NKCC1
APA, Harvard, Vancouver, ISO, and other styles
11

Vaubourg, Julien. "Intégration de modèles de réseaux IP à un multi-modèle DEVS, pour la co-simulation de systèmes cyber-physiques." Thesis, Université de Lorraine, 2017. http://www.theses.fr/2017LORR0022/document.

Full text
Abstract:
Modéliser et simuler (M&S) un système cyber-physique (SCP) peut nécessiter de représenter des éléments provenant de trois domaines d'expertise à la fois : systèmes physiques, systèmes d'informations et réseaux de communication (IP). Le simulateur universel disposant de toutes les compétences nécessaires n'existant pas, il est possible de regrouper des modèles issus des différentes communautés, à l'aide d'un multi-modèle. Les défis sont alors 1) intégrer toute l'hétérogénéité du multi-modèle (formalismes, représentations, implémentations), 2) intégrer des modèles IP de façon à ce qu'ils soient en capacité de représenter le transport de données applicatives produites par des modèles externes et 3) les intégrer de façon à ce qu'ils puissent se compléter, pour représenter ensemble les réseaux IP parfois hétérogènes d'un SCP. Pour parvenir à répondre à ces défis, nous nous inscrivons dans la continuité des travaux de M&S autour de MECSYCO, une plateforme de co-simulation basée sur la notion de wrapping DEVS. Nous proposons de définir un cadre général pour réussir à wrapper en DEVS des modèles IP, avec 1) une structuration des différents niveaux de problèmes pour l'intégration de modèles IP dans une co-simulation (délimitation des objectifs et contraintes du wrapping), et 2) une proposition de stratégie de wrapping DEVS de modèles IP et leurs simulateurs. Nous évaluerons notre approche à travers la démonstration de l'intégration de deux simulateurs IP populaires, et d'exemples concrets de M&S de SCP (avec notamment une interconnexion de modèles entre NS-3 et OMNeT++/INET, et une application industrielle utilisée par EDF R&D)
Modeling and simulation (M&S) of cyber-physical systems (CPS) can require representing components from three expertise fields: physics, information systems, and communication networks (IP). There is no universal simulator with all of the required skills, but we can gather and interconnect models provided by the communities, with a multi-model. The challenges are 1) integrating all heterogeneities in a multi-model (formalisms, representations, implementations), 2) integrating IP models in a way enabling them to represent the transport of application data produced by external models, and 3) integrating IP models in a way enabling them to complete each other, to be able to represent CPS heterogeneous IP networks. In order to meet these challenges, we relied our solution on the works around MECSYCO, a co-simulation platform based on the DEVS wrapping principle. We propose to define a comprehensive framework enabling to achieve DEVS wrapping of IP models, with 1) a structuration of different issue levels when integrating IP models in a co-simulation (goals and constraints of the wrapping) and 2) a proposition of a DEVS wrapping strategy for IP models and their simulators. We propose some evaluations of our approach, through the integration of two popular IP simulators, and concrete examples of CPS M&S (inter alia, with an example of a models interconnection between NS-3 and OMNeT++/INET, and an industrial application used by EDF R&D)
APA, Harvard, Vancouver, ISO, and other styles
12

Delpy, Alain. "Développement embryonnaire des inhibitions GABA/Glycine chlorure-dépendantes dans les réseaux moteurs spinaux : rôle des co-transporteurs NKCC1 et KCC2." Bordeaux 1, 2008. http://www.theses.fr/2008BOR13572.

Full text
Abstract:
Si les mécanismes moléculaires contrôlant la différenciation des différentes populations neuronales composant les réseaux spinaux sont maintenant beaucoup mieux compris, très peu de données cellulaires existent concernant la maturation des inhibitions CI-dépendantes GABA/Glycine. Cette thèse démontre, au niveau des motoneurones spinaux de souris, que cette maturation a lieu dès le stade embryonnaire E16,5 par inactivation de NKCC1/maintient de KCC2 et chute brutale de la concentration intracellulaire en ions CI. Les effets inhibiteurs CI-dépendants deviennent alors prépondérants et conduisent aux inhibitions GABA/Glycine. Une modélisation a permis de mieux comprendre le parallèle entre évolution des paramètres physiologiques motoneuronaux et mise en place des inhibitions. Enfin, le rôle des récepteurs glycinergiques dans le contrôle de l'ontogenèse de KCC2 a été mis en évidence.
APA, Harvard, Vancouver, ISO, and other styles
13

Vasseur, Yann. "Inférence de réseaux de régulation orientés pour les facteurs de transcription d'Arabidopsis thaliana et création de groupes de co-régulation." Thesis, Université Paris-Saclay (ComUE), 2017. http://www.theses.fr/2017SACLS475/document.

Full text
Abstract:
Dans cette thèse, nous cherchons à caractériser les facteurs de transcription de la plante Arabidopsis thaliana, gènes importants pour la régulation de l'expression du génome. À l'aide de données d'expression, notre objectif biologique est de classer ces facteurs de transcription en groupes de gènes co-régulateurs et en groupes de gènes co-régulés. Nous procédons en deux phases pour y parvenir. La première phase consiste à construire un réseau de régulation entre les facteurs de transcription. La seconde phase consiste en la classification des facteurs de transcription selon les liens de régulation établis par ce réseau. D'un point de vue statistique, les facteurs de transcription sont les variables et les données d'expression sont les observations. Nous représentons le réseau à inférer par un graphe orienté dont les nœuds sont les variables. L'estimation de ses arêtes est vue comme un problème de sélection de variables en grande dimension avec un faible nombre d'unités statistiques. Nous traitons ce problème à l'aide de régressions linéaires pénalisées de type LASSO. Une approche préliminaire qui consiste à sélectionner un ensemble de variables du chemin de régularisation par le biais de critères de vraisemblance pénalisée s'avère être instable et fournit trop de variables explicatives. Pour contrecarrer cela, nous proposons et mettons en compétition deux procédures de sélection, adaptées au problème de la haute dimension et mêlant régression linéaire pénalisée et rééchantillonnage. L'estimation des différents paramètres de ces procédures a été effectuée dans le but d'obtenir des ensembles de variables stables. Nous évaluons la stabilité des résultats à l'aide de jeux de données simulés selon notre modèle graphique. Nous faisons appel ensuite à une méthode de classification non supervisée sur chacun des graphes orientés obtenus pour former des groupes de nœuds vus comme contrôleurs et des groupes de nœuds vus comme contrôlés. Pour évaluer la proximité entre les classifications doubles des nœuds obtenus sur différents graphes, nous avons développé un indice de comparaison de couples de partition dont nous éprouvons et promouvons la pertinence. D'un point de vue pratique, nous proposons une méthode de simulation en cascade, exigée par la complexité de notre modèle et inspirée du bootstrap paramétrique, pour simuler des jeux de données en accord avec notre modèle. Nous avons validé notre modèle en évaluant la proximité des classifications obtenues par application de la procédure statistique sur les données réelles et sur ces données simulées
This thesis deals with the characterisation of key genes in gene expression regulation, called transcription factors, in the plant Arabidopsis thaliana. Using expression data, our biological goal is to cluster transcription factors in groups of co-regulator transcription factors, and in groups of co-regulated transcription factors. To do so, we propose a two-step procedure. First, we infer the network of regulation between transcription factors. Second, we cluster transcription factors based on their connexion patterns to other transcriptions factors.From a statistical point of view, the transcription factors are the variables and the samples are the observations. The regulatory network between the transcription factors is modelled using a directed graph, where variables are nodes. The estimation of the nodes can be interpreted as a problem of variables selection. To infer the network, we perform LASSO type penalised linear regression. A preliminary approach selects a set of variable along the regularisation path using penalised likelihood criterion. However, this approach is unstable and leads to select too many variables. To overcome this difficulty, we propose to put in competition two selection procedures, designed to deal with high dimension data and mixing linear penalised regression and subsampling. Parameters estimation of the two procedures are designed to lead to select stable set of variables. Stability of results is evaluated on simulated data under a graphical model. Subsequently, we use an unsupervised clustering method on each inferred oriented graph to detect groups of co-regulators and groups of co-regulated. To evaluate the proximity between the two classifications, we have developed an index of comparaison of pairs of partitions whose relevance is tested and promoted. From a practical point of view, we propose a cascade simulation method required to respect the model complexity and inspired from parametric bootstrap, to simulate data under our model. We have validated our model by inspecting the proximity between the two classifications on simulated and real data
APA, Harvard, Vancouver, ISO, and other styles
14

Nguyen, Xuan hung. "Réseaux de communication et applications de contrôle-commande." Thesis, Toulouse, INSA, 2011. http://www.theses.fr/2011ISAT0025/document.

Full text
Abstract:
Cette thèse se situe dans le domaine des Systèmes Commandés en Réseaux, systèmes pluridisciplinairesqui connaissent un grand développement dans le contexte technologique actuel etqui introduisent de nouveaux problèmes de recherche, en particulier, pour les communautés Automatiqueet Réseau de Communication. L’objectif est de montrer l’intérêt de considérer un lienbidirectionnel entre la Qualité de Contrôle (QdC) (stabilité et performance des applications decontrôle-commande) et la Qualité de Service (QdS) (retards dans les transmissions) en se focalisantsur les réseaux locaux et plus particulièrement sur l’ordonnancement des trames dans la souscouche MAC où on considère des protocoles MAC de type CSMA.Notre travail se situe tout d’abord dans le cadre du réseau CAN où nous faisons trois propositions.La première proposition consiste en des solutions de QdS pour des applications decontrôle-commande sur la base du concept de priorité hybride, pour l’ordonnancement de trames,dans laquelle nous définissons une partie priorité dynamique qui dépend d’un paramètre de QdC.Ceci permet de réaliser une relation QdC→QdS. La deuxième proposition consiste en des solutionsde QdC par une méthode de compensation de retard (maintenance des pôles dominants)ce qui permet de réaliser une relation QdS→QdC. La troisième proposition consiste à réaliserune relation QdC⇋QdS qui assure lors de l’implantation de plusieurs applications, une propriétéd’équité comportementale. Nous abordons ensuite le cadre particulier des réseaux locaux sans filoù, d’une part, nous définissons des protocoles MAC de type CSMA sans collision sur la basede priorités et, d’autre part, nous montrons la faisabilité des idées développées dans le cadre duréseau CAN
This thesis is in the field of Networked Controlled Systems, which are multidisciplinary systemsand which experience a great development in the context of the current technology andintroduce new research problems, particularly for the communities of Automatic Control andCommunication Network. The aim is to show the interest in considering a bidirectional link betweenthe Quality of Control (QoC) (stability and performance of process control applications) andQuality of Service (QoS) (delays in the transmissions) and to focus on Local Area Networks and,more particularly, on the scheduling of frames in the MAC layer in which we consider CSMAMAC protocols.Our work first concerns a CAN network where we have three proposals. The first proposalconsists of solutions for QoS, for process control applications, which are based on the conceptof hybrid priority for the frame scheduling in which we define a dynamic priority part which dependson a QoC parameter. This allows to implement a relation QoC→QoS. The second proposalconsists of QoC solutions by using a compensation method for time delays (maintenance of dominantpoles) which allows to implement a relation QoS→QoC. The third proposal consists inimplementing a relation QoS⇋QoC that ensures, for the implementation of several applications,a fairness property. We then discuss the specific context of Wireless LANs, where, on the onehand, we define collision-free CSMA MAC protocols on the basis of priorities and, on the otherhand, we show the feasibility of the ideas developed in the CAN network
APA, Harvard, Vancouver, ISO, and other styles
15

Barnes, Calypso. "Vérification et validation de propriétés de protocoles pour réseaux de capteurs sans fil grâce au couplage de la simulation et de l’émulation et du système." Thesis, Université Côte d'Azur (ComUE), 2017. http://www.theses.fr/2017AZUR4047/document.

Full text
Abstract:
Les réseaux de capteurs sans fil sont un domaine en plein essor qui montre un potentiel intéressant pour de nombreuses applications. Pour qu’ils soient plus facilement adoptés par les industriels, il est nécessaire de démontrer que leur fonctionnement est fiable, et par conséquent de valider les protocoles utilisés par ces nœuds pour communiquer. Différentes méthodes de validation peuvent être utilisées, mais nous montrons qu’à ce jour, aucune de ces méthodes ne s’est avérée être idéale. Nous avons donc développé un nouvel outil de validation pour ces protocoles, un environnement de simulation appelé SNOOPS, capable d’exécuter le code binaire du protocole compilé sur un modèle de la plateforme hardware du nœud. Le nœud est modélisé en alliant l’émulateur de plateformes virtuelles QEMU au langage de description hardware SystemC, qui est également utilisé pour modéliser les communications en réseau entre les nœuds. Le principal attrait de SNOOPS est de posséder un module observateur qui a pour rôle d’arrêter la simulation si une propriété du protocole a été violée, afin de pouvoir trouver l’origine de l’erreur grâce à un debugger. Les propriétés du protocole à tester sont modélisées en Light Esterel, un langage réactif synchrone, à partir des spécifications du protocole, et compilées en C pour pouvoir être insérées plus simplement dans l’observateur. Un atout supplémentaire de SNOOPS est un module permettant d’interpréter et réinjecter en simulation des trames enregistrées dans un log en format pcap provenant d’expérimentations sur des nœuds physiques. Nous avons testé sur SNOOPS le protocole OCARI développé par EDF R&D et ses partenaires industriels et académiques
Wireless sensor networks are a thriving area that shows good potential for many applications. In order for manufacturers to adopt this technology more easily, it is necessary to demonstrate that the operation of these networks is reliable, and therefore validate the protocols used by the network nodes to communicate. Different validation methods can be used, but we show that to date, none of these methods has proved to be ideal. We have therefore developed a new validation tool for these protocols, a simulation environment called SNOOPS. This tool is able to execute the binary code of the compiled protocol on a model of the node’s hardware platform. The node is modeled by combining QEMU, a virtual platform emulator, with SystemC, a hardware description language which is used in this context to model different hardware peripherals as well as the network communications between nodes. SNOOPS’s main appeal is the observer module, whose role is to stop the simulation if a protocol property has been violated, in order to find the error that is at the origin of this violation through a debugger. The properties of the protocol under test are modeled in Light Esterel, a synchronous reactive language, based on the protocol’s specifications. They are then compiled into C to be inserted more simply in the observer. An additional advantage of SNOOPS is a module to interpret and re-inject into simulation frames recorded in a pcap (packet capture) format log, from tests with physical nodes for which the origin of bugs could not be determined. We tested with SNOOPS the OCARI protocol developed by EDF R&D and its industrial and academic partners
APA, Harvard, Vancouver, ISO, and other styles
16

Espinasse, Hidalgo Isabelle. "Etude des mécanismes des réactions de transestérification ester-ester par RMN : synthèse et propriétés de réseaux à base de polyéthylène co acétate de vinyle et de polyéthylène co acrylate de méthyle." Lyon 1, 1995. http://www.theses.fr/1995LYO10189.

Full text
Abstract:
Les proprietes thermomecaniques du systeme compatible eva ema ont ete ameliorees en le reticulant par des reactions de transesterification entre les fonctions esters de l'eva et de l'ema catalysees par des composes organoetains et principalement des distannoxanes. Dans la premiere partie, le mecanisme de ces reactions a ete etabli en etudiant les reactions entre les fonctions esters et les composes organoetains par spectroscopie rmn (#1h, #1#3c, #1#1#9sn) et par rheologie, et en comparant l'activite catalytique des composes organoetains. Ces etudes ont montre que l'acceleration des reactions est essentiellement liee a une complexation des esters sur les atomes d'etain avec une activite catalytique des distannoxanes tres superieures a celle du diacetate dibutyletain en raison de leur structure dimere. Dans la deuxieme partie, le comportement mecanique des reseaux eva-ema semi-cristallins aux petites et aux grandes deformations ont mis en evidence deux types de nuds de reticulation: les cristallites dont la taille diminue avec la densite de reticulation et les ponts esters entre les chaines eva et ema. D'apres une modelisation du comportement par des theories de l'elasticite caoutchoutique, la phase cristalline determine le comportement mecanique aux petites deformations, cette contribution s'attenuant ensuite. Dans la troisieme partie, les proprietes rheologiques des reseaux eva-ema dans lesquels du polycarbonate ou du polypropylene ont ete disperses, ont ete etudiees. Une bonne dispersion du polycarbonate ou du polypropylene dans une matrice eva-ema est obtenue, meme pour des fractions volumiques elevees (50% en poids). La seconde information donnee par ces etudes ne montre aucune modification du polypropylene disperse lors de la reticulation de la matrice eva-ema mais par contre une compatibilisation entre les eva et les ema et le polycarbonate en presence d'oxyde de dibutyletain, probablement a cause des reactions entre les fonctions esters et les fonctions carbonates
APA, Harvard, Vancouver, ISO, and other styles
17

Dad, Cherifa. "Méthodologie et algorithmes pour la distribution large échelle de co-simulations de systèmes complexes : application aux réseaux électriques intelligents (Smart Grids)." Electronic Thesis or Diss., CentraleSupélec, 2018. http://www.theses.fr/2018CSUP0004.

Full text
Abstract:
L’apparition des réseaux électriques intelligents, ou « Smart Grids », engendre de profonds changements dans le métier de la distribution d’électricité. En effet, ces réseaux voient apparaître de nouveaux usages (véhicules électriques, climatisation) et de nouveaux producteurs décentralisés (photovoltaïque, éolien), ce qui rend plus difficile le besoin d’équilibre entre l’offre et la demande en électricité et qui impose d’introduire une forme d’intelligence répartie entre leurs différents composants. Au vu de la complexité et de l’ampleur de la mise en oeuvre des Smart Grids, il convient tout d’abord de procéder à des simulations afin de valider leur fonctionnement. Pour ce faire, CentraleSupélec et EDF R&D (au sein de l’institut RISEGrid) ont développé DACCOSIM, une plate-forme de co-simulation s’appuyant sur la norme FMI1(Functional Mock-up Interface), permettant de concevoir et de mettre au point des réseaux électriques intelligents et de grandes tailles. Les composants clés de cette plate-forme sont représentés sous forme de boîtes grises appelées FMU (Functional Mock-up Unit). En outre, les simulateurs des systèmes physiques des Smart Grids peuvent faire des retours arrière en cas de problème dans leurs calculs, contrairement aux simulateurs événementiels (unités de contrôle) qui, bien souvent, ne peuvent qu’avancer dans le temps. Pour faire collaborer ces différents simulateurs, nous avons conçu une solution hybride prenant en considération les contraintes de tous les composants, et permettant d’identifier précisément les types d’événements auxquels le système est confronté. Cette étude a débouché sur une proposition d’évolution de la norme FMI. Par ailleurs, il est difficile de simuler rapidement et efficacement un Smart Grid, surtout lorsque le problème est à l’échelle nationale ou même régionale. Pour pallier ce manque, nous nous sommes focalisés sur la partie la plus gourmande en calcul, à savoir la co-simulation des dispositifs physiques. Ainsi, nous avons proposé des méthodologies, approches et algorithmes permettant de répartir efficacement et rapidement ces différentes FMU sur des architectures distribuées. L’implantation de ces algorithmes a déjà permis de co-simuler des cas métiers de grande taille sur un cluster de PC multi-coeurs. L’intégration de ces méthodes dans DACCOSIM permettraaux ingénieurs d’EDF de concevoir des « réseaux électriques intelligents de très grande taille » plus résistants aux pannes
The emergence of Smart Grids is causing profound changes in the electricity distribution business. Indeed, these networks are seeing new uses (electric vehicles, air conditioning) and new decentralized producers (photovoltaic, wind), which make it more difficult to ensure a balance between electricity supply and demand, and imposes to introduce a form of distributed intelligence between their different components. Considering its complexity and the extent of its implementation, it is necessary to co-simulate it in order to validate its performances. In the RISEGrid institute, CentraleSupélec and EDF R&D have developed a co-simulation platform based on the FMI2 (Functional Mock-up Interface) standard called DACCOSIM, permitting to design and develop Smart Grids. The key components of this platform are represented as gray boxes called FMUs (Functional Mock-up Unit). In addition, simulators of the physical systems of Smart Grids can make backtracking when an inaccuracy is suspected in FMU computations, unlike discrete simulators (control units) that often can only advance in time. In order these different simulators collaborate, we designed a hybrid solution that takes into account the constraints of all the components, and precisely identifies the types of the events that system is facing. This study has led to a FMI standard change proposal. Moreover, it is difficult to rapidly design an efficient Smart Grid simulation, especially when the problem has a national or even a regional scale.To fill this gap,we have focused on the most computationally intensive part, which is the simulation of physical devices. We have therefore proposed methodologies, approaches and algorithms to quickly and efficiently distribute these different FMUs on distributed architectures. The implementation of these algorithms has already allowed simulating large-scale business cases on a multi-core PC cluster. The integration of these methods into DACCOSIM will enable EDF engineers to design « large scale Smart Grids » which will be more resistant to breakdowns
APA, Harvard, Vancouver, ISO, and other styles
18

Brastel, Alexis. "Architectures (co)polymères à liens covalents dynamiques." Electronic Thesis or Diss., Université Paris sciences et lettres, 2022. http://www.theses.fr/2022UPSLS004.

Full text
Abstract:
La chimie covalente dynamique est un outil efficace pour former des (co)polymères à blocs d’architecture complexe, difficilement atteignables par voies classiques, mais aussi développer des matériaux qui répondent aux enjeux écologiques et économiques (recyclables, réparables, bon marché). Dans ce travail, nous avons implémenté la liaison imine dans des copolymères en peigne et des co-réseaux de PDMS et PEG, par une voie "grafting to" d’oligomères PEG fonctionnalisés benzaldéhyde et d’un polymère PDMS à fonctions amines pendantes. Dans une première partie, nous avons étudié les propriétés des co-réseaux PDMS-r-PEG en fonction du taux de réticulation imine. Les matériaux sont souples, peu ou pas collants et transparents. L’analyse thermo-mécanique montre qu’ils sont micro-séparés mais sans ordre à longue distance (AFM, SAXS). Ils sont reprocessables à chaud et recyclables par voie chimique (en milieu acide ou en présence d’amine). Ces propriétés s’appuient sur la dynamique associative d’échange et la réversibilité de la liaison imine.Dans une seconde partie, nous avons étudié l’auto-assemblage en solution aqueuse des copolymères en peigne PDMS-g-PEG en fonction du taux de greffage de chaines PEG. Pour un taux de greffage suffisant, les copolymères forment des suspensions colloïdales stables sur plusieurs mois mais dont la forme/taille évolue avec l’hydrolyse des liens imines. Leur capacité à encapsuler et relarguer un composé hydrophobe, en phase simple et en émulsion, a également été démontrée
Dynamic covalent chemistry is an effective tool to synthetize complex architectural block (co)polymers which are difficult to achieve by conventional techniques. It permits also to develop materials that meet ecological and economic challenges (recycling, sustainability, cheap raw materials and products). In this work, we implemented imine bonds in amphiphilic comb-like copolymers and co-networks starting from PDMS with pendant amines and benzaldehyde-functionalized PEG oligomers. In a first part, we studied the properties of PDMS-r-PEG co-networks as a function of the imine crosslinking rate. The materials are flexible, little or no sticky and transparent. Thermo-mechanical analysis shows that they are micro-separated but with no long-distance order (AFM, SAXS). They can be thermally reprocessed and chemically recycled (acidic medium or in the presence of an amine), thanks to the reversible and exchangeable imine crosslinking points. In a second part, we studied the self-assembly in aqueous solution of PDMS-g-PEG comb-like copolymers with the degree of grafting of PEG chains. For a sufficient degree of grafting, the copolymers form colloidal suspensions which are stable over several months even though their shape / size change with the hydrolysis of the imine bonds. Their ability to encapsulate and release a hydrophobic compound, in single phase and in emulsion, has also been demonstrated
APA, Harvard, Vancouver, ISO, and other styles
19

Du, Wan. "Modélisation et simulation de réseaux de capteurs sans fil." Phd thesis, Ecole Centrale de Lyon, 2011. http://tel.archives-ouvertes.fr/tel-00690466.

Full text
Abstract:
Cette thèse traite de la modélisation et la simulation de réseaux de capteurs sans fil afin de fournir des estimations précises de consommations d'énergie. Un cadre de conception et de simulation base sur SystemC au niveau système est proposé, nommé IDEA1. Elle permet l'exploration de l'espace de conception de réseaux de capteurs à un stade amont. Les résultats de simulation comprennent le taux de livraison de paquets, la latence de transmission et les consommations d'énergie. Sur un banc d'essai comportant 9 nœuds, la différence moyen entre les IDEA1 simulations et les mesures expérimentales est 4.6 %. Les performances d'IDEA1 sont comparées avec un autre simulateur largement utilisé, NS-2. Avec la co-simulation matérielle et logicielle, IDEA1 peut apporter des modèles plus détaillés de nœuds de capteurs. Pour fournir les résultats de la simulation au même niveau d'abstraction, IDEA1 réalise les simulations deux fois plus vite que NS-2.Enfin, deux études de cas sont accomplies pour valider le flot de conception d'IDEA1. La performance de l'IEEE 802.15.4 est globalement évaluée pour diverses charges de trafic et configurations de paramètres de protocole. Une application de contrôle actif des vibrations est également étudiée. Les simulations d'IDEA1 trouvent le meilleur choix de protocoles de communication.
APA, Harvard, Vancouver, ISO, and other styles
20

Angelini, Philippe. "Contribution à l'étude de nouvelles technologies de co-packaging et de co-design appliquées à la réalisation de modules photorécepteurs pour les systèmes de télécommunications de prochaine génération." Thesis, Limoges, 2017. http://www.theses.fr/2017LIMO0023/document.

Full text
Abstract:
Les travaux présentés dans cette thèse s'inscrivent dans le cadre des télécommunications optiques à haut-débit sur courtes distances. L'ère numérique dans laquelle nous vivons pousse les architectures actuelles à évoluer aussi rapidement que le besoin en débit. Les réseaux d'accès et data-centers doivent d'ores et déjà évoluer, notamment au niveau des composants et sous-systèmes chargés de détecter les signaux optiques après leur transmission : les photorécepteurs. La montée en débit à 40 Gb/s et au-delà est limitée par l'architecture actuelle des photorécepteurs dont l'interfaçage entre ses deux fonctions primaires (photodétection[PD]/amplification[TIA]) limite la bande passante. Les solutions présentées, visant à limiter la parallélisation multi-longueurs d'onde des composants et ainsi les coût de déploiement, proposent d'augmenter la rapidité des modules photorécepteurs en optimisant leur architecture. Deux axes d'optimisation sont alors proposés au niveau du photorécepteur : Une approche co-packaging ayant pour objectif de considérer les deux fonctions clés du photorécepteur comme des boîtes noires auxquelles il convient d'ajouter un circuit externe permettant d'augmenter la bande passante, et une approche co-design visant à concevoir un nouveau circuit amplificateur transimpédance (TIA) intégrant directement une fonction de pré-égalisation adaptée à la photodiode permettant de repousser la fréquence de coupure du récepteur
This thesis falls within the scope of high-speed short-reach optical communication where the growing need in data transfer forces the current architectures to evolve as quickly. Acces network and data-center components and subsystems must follow this growth, especially on the photoreceiver side. 40 Gb{s and beyond high-speed communications are limited by the current photoreceiver architecture, which, due to the integration of both of its main functions (photodetection[PD]/amplification[TIA]), limits the maximum achievable bandwitdh. In order to reduce the amount of components and price caused by multi-architectures, photoreceivers bandwidth must be increased. Two solutions are proposed so that the photoreceiver performances can be optimized : A co-packaging approach in which both main functions of the photoreceiver are considered as black boxes to which must be added an external circuit allowing to increase the bandwidth, and a co-design approach in which a new transimpedance amplifier (TIA) is designed, integrating a pre-equalizing function based on the photodiode characteristics, allowing an enhancement of the photoreceiver bandwitdh
APA, Harvard, Vancouver, ISO, and other styles
21

Sotto-Sidoun, Eric. "Les nouvelles formes de participation dans les forums publics de consommateurs : vers un dispositif de co-innovation." Thesis, Paris, CNAM, 2014. http://www.theses.fr/2015CNAM0946/document.

Full text
Abstract:
Dans ce travail de recherche, nous avons interrogé les pratiques des consommateurs d’un produit culturel et technologique - le livre numérique - dans les forums publics de discussion, avec pour objectif final d’identifier des usages de consommation innovants. Notre approche transdisciplinaire, s’est appuyée sur le cadre théorique de l’interactionnisme, en empruntant les concepts clés, de l’analyse des interactions quotidiennes (Erving Goffman) et de l’analyse des interactions verbales (Catherine Kerbrat-Orecchioni), en s’inscrivant dans les recherches sur le Document pour l’Action et des transactions coopératives dans une perspective d’innovation produit-marché (Manuel Zacklad). Dans une démarche d’observation non participante et éthique, nous avons procédé à l’analyse qualitative de plusieurs fils de conversation sur le livre numérique, issus du forum BOOKNODE.COM. Nos interprétations suggèrent que le forum de consommateurs est un espace collaboratif auto-géré/auto-régulé, dont l’activité dominante porte sur un échange de connaissances pratiques, reposant sur une expression argumentée d’un point de vue individuel ou un retour d’expérience commenté et détaillé. Nous soutenons que le forum de consommateurs restitue spontanément des usages de consommation difficilement décelables pour l’enquêteur. Toutefois, l’absence d’un modèle d’analyse satisfaisant pour déceler ces usages nous a donné l’occasion de construire une nouvelle grille de lecture, de suggérer une démarche interprétative. L’application de notre modèle - à améliorer - dans un dispositif de co-innovation, aboutit à la construction d’une offre de nouveaux contenus et de nouvelles situations d’usages possibles
In this researching work, we questioned the consumer’s practices of a technological and cultural product - the digital book - in public forums of discussion, with the final objective of identifying innovative consumer habits. Our interdisciplinary approach is based on the theoretical framework of the interactionism, by borrowing the key concepts of the daily interactions analysis (Erving Goffman) and of the verbal interactions (Catherine Kerbrat-Orecchioni), by joining the researches on the Documents for Action (DofA) and the Cooperative Transactions in a prospect of innovation product-market (Manuel Zacklad). In an approach of non-participating and ethical observation, we proceeded to the qualitative analysis of several threads of conversations on the digital book, observed in the forum BOOKNODE.COM. Our interpretations suggest that the consumer forum in a self-managed and self-regulated collaborative space, which the dominant activity concerns an exchange of practical knowledge, based on an expression defended from an individual standpoint or a commented and detailed experience feedback. We maintain that the consumer forum returns spontaneously not readily identifiable consumer habits. However, the absence of an analysis model satisfying to detect these uses, gave us the opportunity to build a new reading grid, then to submit a new interpretative approach. The application of our model - to deal in depth - in a co-innovative plan, results in the construction of an offer of new contents or new situations of possible consumer habits
APA, Harvard, Vancouver, ISO, and other styles
22

Liesecke, Franziska. ""Coupable par association" : exploitation de ressources transcriptomiques pour la construction de réseaux de co-expression de gènes dédiés à l'élucidation de voies cellulaires." Electronic Thesis or Diss., Tours, 2018. http://www.theses.fr/2018TOUR3802.

Full text
Abstract:
Avec l’essor de technologies transcriptomiques à haut débit, une grande quantité de données a été générée.Ce travail est axé sur la réutilisation de ces données publiquement disponibles, pour la construction deréseaux de co-expression de gènes et leur exploitation dans l’élucidation de voies métaboliques et designalisation. Ce travail, dont l’objectif a été de fournir une méthodologie pour l’identification de gènescandidats, est axé autour de trois aspects : (i) le choix d’une distance appropriée pour évaluer la similarité deprofils d’expression entre gènes, (ii) l’identification du nombre d’échantillons minimal à inclure dans lamatrice d’expression, et (iii) la comparaison de réseaux, de type Pathway Level Co-expression (PLC) dedifférentes espèces et construits, avec les gènes codant les acteurs de la voie Multi Step Phosphorelay (MSP)comme guides
With the rise of high throughput technologies able to provide a large-scale view of transcriptomes, a highamount data has been produced. This work focuses on publicly available data reuse to construct gene coexpressionnetworks for metabolic or signalling pathways elucidation. The final aim of this work, was toprovide a methodology for candidate gene identification and thus focuses on (i) the choice of an appropriateddistance to evaluate similarity between gene expression profiles, (ii) the identification of a minimal numberof samples to be included in the expression matrix in order to construct robust co-expression networks, andfinally (iii) the comparison of targeted co-expression networks built with the Pathway Level Co-expression(PLC) approach and using guide genes coding actors of the Multi Step Phosphorelay (MSP) among differentspecies
APA, Harvard, Vancouver, ISO, and other styles
23

Nguyen, Xuan Hung. "Réseaux de Communication et Applications de Contrôle-Commande." Phd thesis, INSA de Toulouse, 2011. http://tel.archives-ouvertes.fr/tel-00663316.

Full text
Abstract:
Cette thèse se situe dans le domaine des Systèmes Commandés en Réseaux, systèmes pluridisciplinaires qui connaissent un grand développement dans le contexte technologique actuel et qui introduisent de nouveaux problèmes de recherche, en particulier, pour les communautés Automatique et Réseau de Communication. L'objectif est de montrer l'intérêt de considérer un lien bidirectionnel entre la Qualité de Contrôle (QdC) (stabilité et performance des applications de contrôle-commande) et la Qualité de Service (QdS) (retards dans les transmissions) en se focalisant sur les réseaux locaux et plus particulièrement sur l'ordonnancement des trames dans la sous couche MAC où on considère des protocoles MAC de type CSMA. Notre travail se situe tout d'abord dans le cadre du réseau CAN où nous faisons trois propositions. La première proposition consiste en des solutions de QdS pour des applications de contrôle-commande sur la base du concept de priorité hybride, pour l'ordonnancement de trames, dans laquelle nous définissons une partie priorité dynamique qui dépend d'un paramètre de QdC. Ceci permet de réaliser une relation QdC->QdS. La deuxième proposition consiste en des solutions de QdC par une méthode de compensation de retard (maintenance des pôles dominants) ce qui permet de réaliser une relation QdS->QdC. La troisième proposition consiste à réaliser une relation QdC<=>QdS qui assure lors de l'implantation de plusieurs applications, une propriété d'équité comportementale. Nous abordons ensuite le cadre particulier des réseaux locaux sans fil où, d'une part, nous définissons des protocoles MAC de type CSMA sans collision sur la base de priorités et, d'autre part, nous montrons la faisabilité des idées développées dans le cadre du réseau CAN.
APA, Harvard, Vancouver, ISO, and other styles
24

Ruelland, Régis. "Apport de la co-simulation dans la conception de l'architecture des dispositifs de commmande numérique pour les systèmes électriques." Toulouse, INPT, 2002. http://ethesis.inp-toulouse.fr/archive/00000019/.

Full text
Abstract:
Ce travail est issu d'un constat concernant l'Adéquation entre les contraintes associées aux Algorithmes de commande et l'Architecture d'un dispositif de commande numérique (A3). En effet, les contraintes temporelles et fonctionnelles de ces algorithmes se répercutent sur les choix architecturaux du dispositif. La répartition des tâches entre les parties "câblées" (composants logiques programmables) et les parties "programmées" (utilisation de microprocesseurs) ne peut plus se faire à priori étant donné les évolutions technologiques dans le domaine des composants numériques. La première partie de ce mémoire est consacrée à la présentation et à l'analyse des tâches potentielles d'un dispositif de commande dédié aux systèmes électriques avec leurs contraintes fonctionnelles et temporelles. Dans un second temps, une synthèse sur le co-design, thème de recherche dans le domaine de l'électronique numérique, est développée afin de présenter différentes voies de recherche sur les outils d'aide à la conception des dispositifs de commande. Dans la deuxième partie, un outil possible, nommé "co-simulation", est étudié afin d'en déterminer l'intérêt et les limites. Les différentes composantes nécessaires à la mise en place d'un environnement de co-simulation sont présentées et développées au travers d'exemples d'applications. Une partie de l'environnement de co-simulation est ensuite exploitée dans la troisième section afin d'étudier différentes solutions pour l'implantation d'observateurs dédiés aux convertisseurs multicellulaires séries. Des résultats expérimentaux concernant l'implantation d'un émulateur temps réel du convertisseur viennent enfin confirmer la validité de l'environnement de co-simulation que nous avons réalisé. La dernière partie est reservée à la synthèse du travail ainsi qu'aux conclusions et perspectives
APA, Harvard, Vancouver, ISO, and other styles
25

Solanki, Jigar. "Approche générative conjointe logicielle-matérielle au développement du support protocolaire d’applications réseaux." Thesis, Bordeaux, 2014. http://www.theses.fr/2014BORD0301/document.

Full text
Abstract:
Les communications entre les applications réseaux sont régies par un ensemble de règles regroupées sous forme de protocoles. Les messages protocolaires sont gérés par une couche de l’application réseau connue comme étant la couche de support protocolaire. Cette couche peut être de nature logicielle, matérielle ou conjointe. Cette couche se trouve à la frontière entre le coeur de l’application et le monde extérieur. A ce titre, elle représente un composant névralgique de l’application. Les performances globales de l’application sont ainsi directement liées aux performances de la couche de support protocolaire associée.Le processus de développement de ces couches consiste à traduire une spécification du protocole, écrite dans un langage de haut niveau tel que ABNF dans un langage bas niveau, logiciel ou matériel. Avec l’avènement des systèmes embarqués, de plus en plus de systèmes sur puce proposent l’utilisation de ressources matérielles afin d’accroître les performances des applicatifs. Néanmoins, peu de processus de développement de couches de support protocolaire tirent parti de ces ressources, en raison notamment de l’expertise nécessaire dans ce domaine.Cette thèse propose une approche générative conjointe logicielle-matérielle au développement du support protocolaire d’applications réseaux, pour améliorer leur performance tout en restant ergonomique pour le développeur de l’application. Notre approche est basée sur l’exploitation d’un langage dédié, appellé Zebra pour générer les différents composants logiciels et matériels formant la couche de support. L’expertise nécessaire est déportée dans l’utilisation du langage Zebra et les composants matériels générés permettent d’accroître les performances de l’application.Les contributions de cette thèse sont les suivantes : Nous avons effectué une analyse des protocoles et applications réseaux. Cette analyse nous a permis d’identifier les composants pour lesquels il est possible d’obtenir des gains de performances.Nous avons conçu et exploité un langage dédié, Zebra, permettant de décrire les différentes entités de la couche de support protocolaire et générant les éléments logiciels et matériels la composant. Nous avons construit un système sur puce exécutant un système d’exploitation Linux afin d’étayer notre approche. Nous avons conçu des accélérateurs matériels déployables pour différents protocoles réseaux sur ce système et pilotables par les applicatifs. Afin de rendre l’accès aux accélérateurs matériels transparent pour les applications réseaux, nous avons développé un intergiciel gérant l’ensemble de ces accès. Cet intergiciel permet à plusieurs applications et/ou à plusieurs clients d’une même application d’utiliser les accélérateurs pour le traitement des messages protocolaires. Nous avons évalué les performances de notre approche dans des conditions réelles. Nous avons comparé ces performances à celles de couches de supports faisant référence dans le domaine. Nous avons constaté un gain de performance conséquent pour l’approche que nous proposons
Communications between network applications is achieved by using rulesets known as protocols. Protocol messages are managed by the application layer known as the protocol parsing layer or protocol handling layer. Protocol parsers are coded in software, in hardware or based on a co-design approach. They represent the interface between the application logic and the outside world. Thus, they are critical components of network applications. Global performances of network applications are directly linked to the performances of their protocol parser layers.Developping protocol parsers consists of translating protocol specifications, written in a high level language such as ABNF towards low level software or hardware code. As the use of embedded systems is growing, hardware ressources become more and more available to applications on systems on chip (SoC). Nonetheless, developping a network application that uses hardware ressources is challenging, requiring not only expertise in hardware design, but also a knowledge of the protocols involved and an understanding of low-level network programming.This thesis proposes a generative hardware-software co-design based approach to the developpement of network protocol message parsers, to improve their performances without increasing the expertise the developper may need. Our approach is based on a dedicated language, called Zebra, that generates both hardware and software elements that compose protocol parsers. The necessary expertise is deported in the use of the Zebra language and the generated hardware components permit to improve global performances.The contributions of this thesis are as follows : We provide an analysis of network protocols and applications. This analysis allows us to detect the elements which performances can be improved using hardware ressources. We present the domain specific language Zebra to describe protocol handling layers. Software and hardware components are then generated according to Zebra specifications. We have built a SoC running a Linux operating system to assess our approach.We have designed hardware accelerators for different network protocols that are deployed and driven by applications. To increase sharing of parsing units between several tasks, we have developped a middleware that seamlessly manages all the accesses to the hardware components. The Zebra middleware allows several clients to access the ressources of a hardware accelerator. We have conducted several set of experiments in real conditions. We have compared the performances of our approach with the performances of well-knownprotocol handling layers. We observe that protocol handling layers baded on our approach are more efficient that existing approaches
APA, Harvard, Vancouver, ISO, and other styles
26

Materia, Francesco. "Review and analysis of institutional and regulatory frameworks for fixed Next Generation Access networks." Thesis, Paris Sciences et Lettres (ComUE), 2017. http://www.theses.fr/2017PSLED049.

Full text
Abstract:
Aujourd’hui, l’usage des données lié aux services et contenus proposés sur Internet est en croissance continue et les opérateurs de télécommunications font face à une demande croissante en connectivité. Dans ce contexte, il est indispensable que la transition vers les réseaux très haut débit soit gérée de manière efficace afin de préserver, voire incrémenter, le niveau de concurrence sur le marché ainsi que maximiser l’investissement efficace au bénéfice des consommateurs à travers une combinaison appropriée de différentes formes de concurrence, de différentes technologies et d’investissement à la fois privé et public. Si accompagnée de manière efficace, cette transition peut représenter une grande opportunité pour les marchés des télécommunications européens, les transformant en marchés modernes et concurrentiels et permettant à la régulation ex ante de se retirer progressivement. Nous passons en revue les cadres institutionnels et réglementaires pour les réseaux d’accès fixes de nouvelle génération implémentés en France, Allemagne, Italie, Royaume-Uni et Espagne. A partir d’un modèle de concurrence calibré, nous simulons l’évolution des marchés à horizon 2050 et analysons dans quelle mesure ces cadres paraissent efficaces afin de restituer les meilleurs résultats pour le secteur et pour les consommateurs. Les résultats de notre modèle calibré suggèrent que, afin d’obtenir des meilleurs résultats en terme de bien-être total de long-terme, dans des proportions plus ou moins grandes, certains ajustements pourraient être introduits dans les cadres institutionnels et réglementaires considérés.Nous formulons ainsi, pour chacun des pays analysés, des recommandations visant à accélérer la couverture en très haut débit et à améliorer le niveau de concurrence
Today, data usage driven by content and service providers over the Internet is constantly increasing and telecoms operators are expected to meet an increasing demand for connectivity. In this context, it is vital that the transition between legacy and ultrabroadband networks is properly managed in order both to preserve or improve the state of competition in the market and to maximize efficient investment to the benefit of consumers through an appropriate combination of different forms of competition, of different technologies and of private and public investment. If properly accompanied, the transition from legacy to next generation access networks can represent a major opportunity for the current European telecommunications markets, definitively transforming them into competitive and modern markets and allowing ex ante regulation to progressively step-back.We review the institutional and regulatory frameworks for fixed next generation access networks currently implemented in France, Germany, Italy, United Kingdom and Spain. Based on a calibrated competition model, we simulate market evolution up to 2050 and appraise to what extent these frameworks seem effective in order to achieve the best long-term results both for the industry and for consumers. The results of our calibrated model suggest that, to a greater or lesser extent, some adjustments might be introduced in the above-mentioned frameworks in order to achieve better outcomes in terms of total welfare in the long run. For each of the countries reviewed, we formulate policy recommendations aimed to accelerate NGA coverage and to improve the state of competition in ultrabroadband
APA, Harvard, Vancouver, ISO, and other styles
27

Gougeon, Adrien. "Optimisation d’un réseau dynamique et efficace en énergie servant à piloter la grille électrique." Electronic Thesis or Diss., Université de Rennes (2023-....), 2023. https://tel.archives-ouvertes.fr/tel-04086397.

Full text
Abstract:
Face aux défis concernant les secteurs de l’énergie et de l’environnement, le réseau électrique est confronté à certaines limites.Un problème majeur du réseau électrique actuel est le manque de communication et de coordination entre ses acteurs pour exploiter pleinement son potentiel. Pour surmonter ces limites et offrir de nouveaux services aux acteurs du réseau électrique, nous nous dirigeons vers un réseau plus intelligent, la Smart Grid. Le déploiement d’une infrastructure supplémentaire est nécessaire pour réaliser cette transition. Cette infrastructure, Advanced Metering Infrastructure (AMI), vise à améliorer les capacités de surveillance et de communication des acteurs du réseau électrique.L’objectif de cette thèse est de quantifier la dégradation de performance de certains nouveaux services de la Smart Grid, due à la qualité de service de l’AMI. Nous explorons plusieurs paramètres de l’infrastructure de communication et observons par co-simulation comment ces paramètres influencent l’efficacité de ces services. Un des objectifs principaux de la Smart Grid est aussi de réduire la consommation d’énergie.Dans un deuxième temps, nous modélisons la consommation énergétique de bout en bout de l’AMI afin d’évaluer sa propre consommation.Les outils de co-simulation proposés ainsi que les modèles de consommation sont tous disponibles sans restrictions
In front of the challenges concerning the energy and environmental sectors, the electrical grid faces some limitations. A major issue of the current power network is the lack of communication and coordination between its actors to fully exploit its potential.To overcome those limitations, and offer new services to the actors of the electrical grid, we are moving toward the Smart Grid. The deployment of an additional infrastructure is necessary to enable the Smart Grid. This infrastructure, known as the Advanced Metering Infrastructure (AMI), aims to enhance the monitoring and communication capabilities of the actors of the electrical grid.The goal of this thesis is to quantify the performance degradation of some new services of the Smart Grid, due to the quality of service of the AMI. We explore several parameters of the communication infrastructure and observe through co-simulation how those parameters influence the efficiency of those services. One of the main objectives of the Smart Grid is to reduce energy consumption.In a second stage, we model the end-to-end energy consumption of an AMI at a large scale to assess its own consumption.The proposed co-simulation framework and consumption models are all license free
APA, Harvard, Vancouver, ISO, and other styles
28

Mubarak, Oussama. "Designing and Modeling Collective Co-located Interactions for Art Installations." Thesis, Paris, CNAM, 2018. http://www.theses.fr/2018CNAM1170/document.

Full text
Abstract:
À l'instar d'œuvres telles que Kinoautomat de Radúz Činčera, SAM - Sound Activated Mobile d'Edward Ihnatowicz et Glowflow de Myron Krueger, des artistes ont développé, dès les années 1960, des installations artistiques engageant des situations d'interaction collective co-localisée inédites, c'est-à-dire impliquant plusieurs voire de nombreux spectateurs interagissant dans le même lieu via et avec un dispositif informatique. Le nombre de ces travaux ne cesse d'augmenter depuis le début du 21ème siècle, profitant des nouvelles opportunités offertes par les avancées dans les technologies de vision par ordinateur en temps réel et par l'avènement de l'informatique ubiquitaire marquée par la multiplication et l'interopérabilité des appareils informatiques mobiles. Si les expériences en la matière sont de plus en plus fréquentes, elles n'ont jusqu'à ce jour fait l'objet d'aucune analyse structurée et, encore moins, de propositions d'outils et de méthodes de conception dédiés. Comment, aujourd'hui, concevoir de tels dispositifs artistiques interactifs dont la complexité intrinsèque implique des questions aussi bien de l'ordre technique, social, cognitif qu'esthétique ? Cette thèse met à contribution des travaux antérieurs dans les domaines de l'interaction homme-machine (IHM), du travail coopératif assisté par ordinateur (TCAO) et des arts interactifs dans le but d'accroître notre connaissance quant aux défis auxquels sont confrontés à la fois les artistes et les participants de telles installations et, au-delà, les concepteurs de ces dispositifs en devenir. Un ensemble d'outils et de lignes directrices sont proposés pour la conception de systèmes d'interaction collective co-localisée pour les installations d'art numérique. Est d'abord développé un système de classification centré sur les aspects les plus décisifs permettant l'émergence d'une expérience collective. Deux approches différentes sont ensuite explorées pour trouver les bases d'un langage de modélisation graphique pour l'analyse et la conception de tels dispositifs. S'appuyant sur les réseaux de Petri, la deuxième approche permet de modéliser aussi bien les ressources spatiales et matérielles d'une installation, que les interactions homme-machine, humain(s)-humain(s) et humain(s)-machine(s)-humain(s). Les investigations menées pour cette recherche ont nécessité de mettre un accent particulier sur les conditions - qu'elles soient spatiales, matérielles ou humaines - qui affectent la capacité pour les participants de telles installations de co-construire une expérience esthétique commune en l'absence d'orchestration ou d'un objectif pré-annoncé à atteindre. Si cette approche singulière concerne en premier lieu les arts interactifs, elle peut revêtir également un caractère pertinent pour d'autres communautés de recherche, y compris et en premier lieu, celle de l'IHM, ainsi que celles du TCAO, des Nouvelles interfaces pour l'expression musicale (NIME), du design d'interaction ou encore de la culture, en particulier de la muséographie
With works such as Kinoautomat by Radúz Činčera, SAM - Sound Activated Mobile by Edward Ihnatowicz, and Glowflow by Myron Krueger, artists have deployed, as early as the 1960s, art installations engaging novel situations of collective co-located interaction, i.e involving multiple or even many spectators interacting in the same place via and with a digital apparatus. The number of those works has continued to increase since the beginning of the 21st century, taking advantage of the new opportunities offered by advances in real-time computer vision technologies and the advent of ubiquitous computing marked by the multiplication and interoperability of mobile computing devices. While experiences in this area are more and more frequent, they have not yet been the subject of structured analysis and, even less, of proposals for dedicated tools and design methods. How can we, nowadays, conceive such interactive art installations whose intrinsic complexity involves questions of the technical, social, cognitive and aesthetic order? This dissertation draws on previous work in the fields of human-computer interaction (HCI), computer-supported cooperative work (CSCW), and interactive arts research with the aim of increasing our knowledge of the challenges faced both by art practitioners and participants in such collective interactive installations, and, beyond, the designers of apparatus in a promising future. A set of tools and guidelines are proposed when designing collective co-located interactions for digital art installations. First a classification system is developed centered on the most decisive aspects that allow the emergence of a collective experience. Two distinct approaches are then explored to find the bases of a graphical modeling language for the design and analysis of such apparatus. Build on top of Petri nets, the second approach supports modeling the spatial and material resources of an installation, as well as the human-machine, human-human and human-machine-human interactions. The investigations conducted for this research have required laying particular emphasis on the conditions - whether spatial, material, or human - which affect the ability for participants to co-construct a common aesthetic experience in the absence of orchestration or a preannounced goal to be achieved. While this singular approach primarily concerns interactive arts, it may be relevant to a wide range of research communities, including, and foremost, that of HCI, as well as CSCW, New Interfaces for Musical Expression (NIME), interaction design, and even culture, museography in particular
APA, Harvard, Vancouver, ISO, and other styles
29

Motie, Yassine. "Interopérabilité entre dispositifs hétérogènes en environnement ouvert pour la mise en oeuvre de co-simulation." Thesis, Toulouse 3, 2019. http://www.theses.fr/2019TOU30102.

Full text
Abstract:
Le grand nombre de fonctionnalités d'appareils électroniques qu'on utilise quotidiennement entraîne le passage d'une vision centrée sur des anciennes machines multifonctions vers des appareils variées en interaction distribués et éparpillés dans l'environnement. Sachant qu'un système est un ensemble intégré d'éléments (produits, personnels, processus) connectés et reliés entre eux, en vue de satisfaire, dans un environnement donné, un ou plusieurs objectifs définis et ayant des caractéristiques comme les composants qui le constituent, les relations entre ces composants, son environnement, les contraintes qu'il subit, les évolutions au cours du temps. La combinaison de ces derniers nous conduit à qualifier certains systèmes comme étant complexes dû à l'hétérogénéité des composants les constituant, à leurs évolution à diverses échelles de temps et à leurs répartition géographique intégrant des systèmes numériques, physiques et/ou des opérateurs humains dans la boucle. La difficulté d'avoir une bonne vision du système quand il est complexe (dispositifs réels et d'autres simulés) et la probabilité d'erreur de conception importante nous amène à réfléchir sur la possibilité de spécifier le produit et vérifier la conception à l'aide d'un prototype virtuel, on parle de simulation. Quand un système complexe nécessite l'emploi de différents composants spécifiés par différents concepteurs travaillant sur des domaines différents, ceci augmente fortement le nombre de prototypes virtuels. Ces différents composants ont malheureusement tendance à demeurer trop indépendants les uns des autres empêchant ainsi à la fois les différents concepteurs de collaborer et leurs systèmes d'être interconnectés en vue de remplir une ou plusieurs tâches qui ne pourraient pas être accomplies par l'un de ces éléments seulement. Le besoin de communication et de coopération s'impose. Cela doit tenir compte des différents acteurs et les coordonner dans leurs interactions au sein de ce système complexe. Or les avancées en simulation dans chacun des domaines sont considérables, chacun disposant de ses propres logiciels. Des solutions d'interopérabilités sont donc nécessaires pour la mise en œuvre d'une co-simulation encourageant le dialogue entre les disciplines et réduisant les erreurs, le coût et le temps de développement. Dans notre thèse nous participons à la conception d'un système de co-simulation qui intègre différents outils de simulation-métiers basés sur la modélisation du comportement de dispositifs comme la simulation énergétique et la simulation d'usure de matériaux de construction au sein de la même plateforme. Après la prise en compte des notions d'architecture, de communication (entre les simulateurs ou avec les utilisateurs) et de visualisation pour définir les modèles d'architecture. Nous analysons l'architecture gérant l'interopérabilité. Nous proposons une approche d'interopérabilité se basant sur la réutilisation et l'échange de composants de calculs. Nous aborderons successivement les problématiques liées aux niveaux structurel et sémantique d'interopérabilité, aux stratégies co-simulation, aux méthodes de conception du modèle de tâches permettant la construction de composants boite noire. Puis nous présenterons la mise en application concrète de notre méthodologie de conception globale et de l'outil de vérification de certaines propriétés de l'architecture, comme la cohérence et la sémantique
The large number of electronic device features we use on a daily basis means a shift from a vision of old multifunction machines to distributed, widely distributed distributed devices in the environment. Knowing that a system is an integrated set of connected and interrelated elements (products, people, processes) in order to satisfy, in a given environment, one or more defined objectives and having characteristics such as the components that constitute it , the relations between these components, its environment, the constraints it undergoes, evolutions over time. The combination of these leads us to qualify some systems as complex due to the heterogeneity of the components constituting them, their evolution at various time scales and their geographical distribution integrating digital systems, physical and / or human operators in the loop. The difficulty of having a good vision of the system when it is complex (real and other simulated devices) and the probability of significant design error leads us to reflect on the ability to specify the product and verify the design using a virtual prototype, we are talking about simulation. When a complex system requires the use of different components specified by different designers working on different domains, this greatly increases the number of virtual prototypes. These different components unfortunately tend to remain too independent of each other thus preventing both the different designers from collaborating and their systems from being interconnected in order to fulfill one or more tasks that could not be accomplished by one of these elements only. The need for communication and cooperation is needed. This must take into account the different actors and coordinate them in their interactions within this complex system. But the advances in simulation in each area are considerable, each with its own software. Interoperability solutions are therefore necessary for the implementation of a co-simulation encouraging dialogue between disciplines and reducing errors, cost and development time. In our thesis we participate in the design of a co-simulation system which integrates different tools of simulation-trades based on the modeling of the behavior of devices like the simulation energetics and the simulation of wear of building materials within the same platform. After taking into account the concepts of architecture, communication (between simulators or with users) and visualization to define architecture models. We analyze the architecture that manages interoperability. We propose an interoperability approach based on the reuse and exchange of computational components. We will successively address the issues related to the interoperability structural and semantic levels, the co-simulation strategies, the design methods of the task model allowing the construction of black box components. Then we will present the concrete implementation of our global design methodology and the verification tool of some properties of the architecture, such as coherence and semantics
APA, Harvard, Vancouver, ISO, and other styles
30

Roy, Mélanie. "Evolution de la mycohétérotrophie chez les orchidées." Montpellier 2, 2009. http://www.theses.fr/2009MON20140.

Full text
Abstract:
Les plantes mycohétérotrophes sont non chlorophylliennes et reçoivent leur matière organique de leurs champignons mycorhiziens (en symbiose avec les racines). Chez les orchidées, ce mode de nutrition est apparu indépendamment 20 fois. Toutes les orchidées chlorophylliennes sont plus ou moins spécifiquement associées à des champignons mycorhiziens, connus comme saprophytes, tandis que les espèces complètement mycohétérotrophes sont spécifiquement associées à des champignons mycorhiziens des arbres. Les considérations évolutives sur les changements de partenaires mycorhiziens liés à la mycohétérotrophie n'ont pour l'instant été fondées que sur des orchidées tempérées alors que la majorité des mycohétérotrophes sont tropicales. Ce travail étudie des genres mycohétérotrophes à la fois tempérés et tropicaux, de deux sous-tribus, les Nerviliées (Epipogium) et les Neottiées (Cephalanthera et Aphyllorchis), afin de déterminer l'identité, l'écologie et la spécificité de leurs partenaires mycorhiziens dans un même contexte phylogénétique. Tandis que les Nerviliées ont connu un changement de partenaire en milieu tempéré, les Neottiées tropicales ont des hôtes similaires aux Neottiées tempérées. Cependant, les Neottiées tropicales ont révélé des associations non spécifiques, un cas nouveau pour les mycohétérotrophes, qui souligne un fonctionnement différent de la mycohétérotrophie dans ces écosystèmes. Par ailleurs, les Neottiées présentent des espèces chlorophylliennes où la mycohétérotrophie apparaît ponctuellement, sous forme d'individus complètement albinos et viables. Ce phénomène est rare et apparemment contre-sélectionné : leur budget carboné réduit, la physiologie de leurs feuilles, et leur absence de pigments les rendent plus sensibles au stress hydrique, aux pathogènes et aux herbivores, et diminuent d'autant plus leur capacité à former des fruits. La comparaison de la valeur sélective des albinos et des individus chlorophylliens dans deux environnements différents souligne que les environnements sombres et humides sont plus favorables à la fixation de la mycohétérotrophie. Ces nouveaux éléments permettent de mieux comprendre les exigences écologiques des mycohétérotrophes ainsi que des orchidées chlorophylliennes forestières
Mycoheterotrophic plants are non-photosynthetic plants that receive their organic carbon from mycorrhizal fungi. During orchid evolution, this nutrition arose 20 times. Every green orchid are more or less specifically associated with mycorrhizal fungi, known as saprobes, whereas mycoheterotrophic species are specifically associated with tree mycorrhizal fungi. Interpretations about fungal partner changes associated with mycohétérotrophie evolution were mainly based on temperate mycoheterotrophic orchids, while most of mycohétérotrophes occur in tropical regions. This work studies orchid genera occurring in both temperate and tropical ecosystems in two sub-tribe: Nervilieae (Epipogium) and Neottieae (Cephalanthera and Aphyllorchis) in order to determine the identity, the ecology and the specificity of their fungal partners in a narrow phylogenetical background. While Nervilieae present fungal partners changes between temperate and tropical ecosystems, Neottieae are always associated to tree mycorrhizal fungi. Moreover, some Neottieae green species produce punctual mycoheterotrophic individuals that survive. These albino individuals are always rare and seem to have a lower fitness, due to a lower carbon budget, their leaf physiology, and their low pigment content. All these factors make them more susceptible to pathogens, herbivores and light or water stresses, and reduce their seed set. Comparison of their fitness in two different environments underline that they survive better in dark and humid forest. These new elements help understanding ecological constraints over mycoheterotrophy evolution, and permit to know more about forest-dwelling orchids ecology
APA, Harvard, Vancouver, ISO, and other styles
31

Moreira, Helena. "Confinement quantique dans les nanocristaux supraconducteurs et transport électronique dans les réseaux de nanocristaux métalliques." Phd thesis, Paris 6, 2009. http://pastel.archives-ouvertes.fr/pastel-00566233.

Full text
Abstract:
Une première partie de ce travail de thèse consiste au développement d'une nouvelle synthèse chimique de nanocristaux supraconducteurs de plomb ayant la particularité de produire de grandes quantités de nanocristaux monodisperses. Cette synthèse nous permet de réaliser des mesures précises des propriétés thermodynamiques supraconductrices en fonction de la taille des nanocristaux. Nous présentons des mesures de susceptibilité magnétique de ces nanocristaux afin d'analyser l'amplitude de l'effet Meissner en fonction de la taille des particules. Pour des tailles de nanoparticules de plomb comprises entre 10 et 30 nm, nous avons trouvé que l'amplitude de l'effet Meissner est plus faible de plusieurs ordres de grandeurs que prédite par la théorie de Ginzburg-Landau. Nous avons aussi trouvé que cet effet est totalement supprimé pour des particules de diamètres inférieurs à 16 nm lorsque le spectre électronique devient discret. Ce résultat montre que les effets du confinement quantique altèrent l'état superfluide même pour des tailles supérieures à la taille déterminée par le critère d'Anderson. Ce critère contrôle l'existence des paires de Cooper dans le nanocristal. Dans une seconde partie de cette thèse, nous présentons une étude du transport électronique dans des réseaux de nanocristaux d'or réalisés par la technique de Langmuir. Nous présentons l'évolution des propriétés de conduction électrique et optique de ces réseaux avec le couplage des nanocristaux par des molécules alcanedithiols. Nous montrons que la conductivité du réseau augmente fortement pour de petites chaînes alcanes sans pour autant conduire à un état métallique. Aux basses températures de l'Hélium liquide, les caractéristiques courant-tension mesurées sur ces réseaux montrent un comportement non-linéaire et exhibent une tension seuil VT pour l'établissement d'un courant électronique dans le réseau. Nous analysons ce comportement caractéristique du transport dans un réseau avec blocage de Coulomb avec le modèle de Middleton et Wingreen, lequel identifie le passage du régime isolant au régime conducteur à une transition du second ordre. Au voisinage du point critique VT, on observe que la loi reliant le courant à la tension appliquée suit la relation attendue théoriquement. La valeur de l'exposant trouvé suggère que le transport est dominé par des mécanismes de co-tunneling.
APA, Harvard, Vancouver, ISO, and other styles
32

Haffar, Mohamad. "Approche de Co-Simulation en vue de la validation et de l'évaluation de performance des systèmes de communication : Application à des architectures de distribution électriques." Phd thesis, Université de Grenoble, 2011. http://tel.archives-ouvertes.fr/tel-01003130.

Full text
Abstract:
L'objectif consiste, dans le cadre d'un partenariat industriel à proposer une plate-forme de co-simulation permettant l'évaluation de performance et la validation, dans un contexte normatif, d'architecture de protection de systèmes de distribution d'énergie électrique. Pour cela, un système de communication, basé sur une extension de TCP/IP, appelé la norme CEI 61850, est mis en œuvre. Cette norme impose des contraintes de performance du système de communication et précise, par l'utilisation d'une approche objet, comment le système de protection doit être organisé globalement. Le développement de la plate-forme de co-simulation se justifie par le besoin d'être capable d'évaluer les performances d'une architecture en phase de conception, chez le constructeur, et d'autre part de permettre l'interopérabilité entre des portions d'architecture existantes ou développées chez des constructeurs différents.
APA, Harvard, Vancouver, ISO, and other styles
33

Jamont, Jean-Paul. "DIAMOND : Une approche pour la conception de systèmes multi-agents embarqués." Phd thesis, Grenoble INPG, 2005. http://tel.archives-ouvertes.fr/tel-00189046.

Full text
Abstract:
Cette thèse propose une méthode pour l'analyse de problèmes relevant des systèmes complexes physiques ouverts avec des systèmes multi-agents physiques. Cette méthode que nous appelons DIAMOND (Decentralized Iterative Approach for Multiagent Open Networks Design) agence quatre phases en un cycle de vie en spirale. Elle propose d'utiliser, pour le recueil des besoins, des notations d'UML mais elle structure le fonctionnement global du système via une étude de modes de marche et d'arrêt. Elle utilise le raffinement notamment entre le niveau local et le niveau global du système et assemble les comportements individuels et les comportements sociaux tout en identifiant les influences de l'un sur l'autre. Elle guide le concepteur durant la phase de conception générique en utilisant les composants comme unité opératoire. En fin de cycle, le partitionnement logiciel/matériel du système intervient et permet la génération du code ou des descriptions matérielles.
Il n'était pas suffisant de proposer une méthode : considérer les composants des systèmes complexes physiques comme des noeuds coopérants d'un réseau sans fil est une démarche attrayante qui peut être vue comme la traduction physique extrême de la décentralisation. De fait, des besoins spécifiques en architectures doivent être traités. Pour cela, nous proposons le modèle MWAC (Multi-Wireless-Agent Communication) qui repose sur l'auto-organisation des entités du système.
Ces deux contributions sont exploitées au sein de l'application EnvSys qui a pour objectif l'instrumentation d'un réseau hydrographique.
APA, Harvard, Vancouver, ISO, and other styles
34

Douam, Florian. "Hepatitis C Virus E1E2 co-evolving networks unveil their functional dialogs and highlight original therapeutic strategies." Phd thesis, Ecole normale supérieure de lyon - ENS LYON, 2013. http://tel.archives-ouvertes.fr/tel-00946592.

Full text
Abstract:
Hepatitis C Virus (HCV) infects more than 170 million people worldwide but no vaccine is available yet. HCV entry may represent a promising target for therapies and is mediated by two envelope glycoproteins, E1 and E2, assembled as heterodimer onto the virus surface. However, how E1 and E2 dialog, structurally rearrange and act together during these steps remain poorly defined. In this work, we aimed to clarify the interrelation of E1E2 during virus entry, thus opening ways to potential new therapeutic strategies. We first investigated whether a strong genetic divergence between E1E2 heterodimers may highlight distinct functions. We observed that B-cell derived E1E2 were specialized for B-cell infection, suggesting that new functions can emerge from the E1E2 conformational plasticity. In a second approach, we identified a conserved dialog between E1 and the domain III of E2 that was critical for virus binding and fusion. Moreover, a computational model predicted a strong co-evolution between E1 and E2 as well as potential structural rearrangements, suggesting that HCV E2 is likely a fusion protein able to fold over via its domain III through the mediation of E1. Altogether, these different works highlight that E1 and E2 are involved in complex dialogs that regulate the heterodimer folding and functions, suggesting that E1E2 heterodimer is more likely a single functional protein entity than an association of two proteins with specific functions.
APA, Harvard, Vancouver, ISO, and other styles
35

Ali, Mohamad Jaafar. "Wireless body area networks : co-channel interference mitigation & avoidance." Electronic Thesis or Diss., Sorbonne Paris Cité, 2017. http://www.theses.fr/2017USPCB252.

Full text
Abstract:
L’amélioration de la qualité et de l’efficacité en santé est un réel enjeu sociétal. Elle implique la surveillance continue des paramètres vitaux ou de l’état mental du sujet. Les champs d’applications sont vastes : l’application la plus importante est la surveillance des patients à distance. Les avancées en micro-électronique, capteurs et réseaux sans-fil permettent aujourd’hui le développement de systèmes ambulatoires performants pour le monitoring de paramètres physiologiques, capables de prendre en compte d’importantes contraintes techniques : forte intégration pour la réduction de la taille et faible consommation pour une plus grande autonomie [1]. Cependant, la conception de ce type de réseaux de capteurs médicaux WBANs (Wireles Body Area Networks) se heurte à un certain nombre de difficultés techniques, provenant des contraintes imposées par les capacités réduites des capteurs individuels : basse puissance, énergie limitée et faible capacité de stockage. Ces difficultés requièrent des solutions différentes, encore très embryonnaires, selon l’application visée (monitoring à but médical). La forte mobilité et le changement rapide de la topologie du réseau dévoilent un verrou scientifique et social. En outre, l’interférence de différents capteurs constituant le WBAN augmente la difficulté de la mise en place de ce type de réseaux. De nombreuses solutions dans la littérature ont été étudiées, comme nous allons illustrer dans ce manuscrit, néanmoins elles restent limitées. Nous nous intéresserons tout particulièrement à la gestion des interférences Intra- et Inter-WBAN, leur impacte sur la fiabilité des transmissions (des liens) et la durée de vie de ce type de réseaux. Plus précisément, nous abordons ces problématiques en se basant sur des modélisations théoriques et analytiques et avec une conception pratique des solutions proposées. Afin d’atteindre les objectifs cités ci-dessous, nous abordons quatre solutions : • Une gestion des interférences intra-WBAN • Une gestion coopérative des interférences Inter-WBAN • Une gestion non coopérative des interférences, Inter-WBAN • Une gestion des interférences WBAN dans un contexte IoT Dans la première partie de cette thèse et afin de répondre en partie aux problèmes de gestion des interférences Intra-WBAN. Nous présentons deux mécanismes pour le WBAN : (a) CFTIM qui alloue dynamiquement des slots et des canaux dit- stables (avec un taux d’interférences le bas possible dans le temps) pour réduire les interférences intra-WBAN. (b) IAA ajuste dynamiquement la taille du superframe et limite le nombre de canaux à 2 pour abaisser les interférences Intra-WBAN et ainsi économiser l’énergie. Une validation avec un model probabiliste est proposé afin de valider théoriquement l’efficacité de notre solution. Les résultats de la simulation démontrent l’efficacité du CFTIM et de l’IAA en termes de réduction de la probabilité d’interférence, l’extension de la durée de vie du réseau et l’amélioration du débit et de la fiabilité des transmissions. Notre seconde contribution, propose une gestion coopératives des interférences Inter-WBAN en utilisant des codes orthogonaux. Motivé par un approvisionnement temporel distribué basé sur la norme [2] IEEE 802.15.6, nous proposons deux solutions. (a) DTRC qui fournit à chaque WBAN les connaissances sur les superframes qui se chevauchent. Le second, (b) OCAIM qui attribue des codes orthogonaux aux capteurs appartenant à deux listes de groupe de capteur en interférences de deux WBAN différents (SIL). Les résultats démontrent qu’OCAIM diminue les interférences, améliore le débit et préserve la ressources énergétiques. La troisième partie nous a permis d’aborder la gestion des interférences, mais cette fois ci d’une manière non-coopérative en se basant sur l’affectation couple Slot/Canal. Plus précisément, nous proposons deux schémas basés sur les carrés latins. (...)
A Wireless Body Area Network (WBAN) is a short-range network that consists of a coordinator (Crd) and a collection of low-power sensors that can be implanted in or attached to the human body. Basically, WBANs can provide real-time patient monitoring and serve in various applications such as ubiquitous health-care, consumer electronics, military, sports, etc. [1]. As the license-free 2.4 GHz ISM band is widely used among WBANs and across other wireless technologies, the fundamental problem is to mitigate the resulting co-channel interference. Other serious problems are to extend the network lifetime and to ensure reliable transmission within WBANs, which is an urgent requirement for health-care applications. Therefore, in this thesis, we conduct a systematic research on a few number of research problems related to radio co-channel interference, energy consumption, and network reliability. Specifically, we address the following problems ranging from theoretical modeling and analysis to practical protocol design: • Intra-WBAN interference mitigation and avoidance • Cooperative inter-WBAN interference mitigation and avoidance • Non-cooperative inter-WBAN interference mitigation and avoidance • Interference mitigation and avoidance in WBANs with IoT Firstly, to mitigate the intra-WBAN interference, we present two mechanisms for a WBAN. The first is called CSMA to Flexible TDMA combination for Interference Mitigation, namely, CFTIM, which dynamically allocates time-slots and stable channels to lower the intra-WBAN interference. The second is called Interference Avoidance Algorithm, namely IAA that dynamically adjusts the superframe length and limits the number of channels to 2 to lower the intra-WBAN interference and save energy. Theoretically, we derive a probabilistic model that proves the SINR outage probability is lowered. Simulation results demonstrate the effectiveness and the efficiency of CFTIM and IAA in terms of lowering the probability of interference, extending network lifetime, improving throughput and reliability. Secondly, we address the problem of interference among cooperative WBANs through using orthogonal codes. Motivated by distributed time provisioning supported in IEEE 802.15.6 standard [2], we propose two schemes. The first is called Distributed Time Correlation Reference, namely, DTRC that provides each WBAN with the knowledge about which superframes overlap with each other. The second is called Orthogonal Code Allocation Algorithm for Interference Mitigation, namely, OCAIM, that allocates orthogonal codes to interfering sensors belonging to sensor interference lists (SILs), which are generated based on the exchange of power-based information among WBANs. Mathematically, we derive the successful and collision probabilities of frames transmissions. Extensive simulations are conducted and the results demonstrate that OCAIM can diminish the interference, improve the throughput and save the power resource. Thirdly, we address the problem of co-channel interference among non-cooperative WBANs through time-slot and channel hopping. Specifically, we propose two schemes that are based on Latin rectangles. The first is called Distributed Algorithm for Interference mitigation using Latin rectangles, namely, DAIL that allocates a single channel to a timeslot combination to each sensor to diminish inter-WBAN interference and to yield better schedules of the medium access within each WBAN. The second is called Channel Hopping for Interference Mitigation, namely, CHIM, which generates a predictable interference free transmission schedule for all sensors within a WBAN. CHIM applies the channel switching only when a sensor experiences interference to save the power resource. Furthermore, we present an analytical model that derives bounds on collision probability and throughput for sensors transmissions. (...)
APA, Harvard, Vancouver, ISO, and other styles
36

Mubarak, Oussama. "Designing and Modeling Collective Co-located Interactions for Art Installations." Electronic Thesis or Diss., Paris, CNAM, 2018. http://www.theses.fr/2018CNAM1170.

Full text
Abstract:
À l'instar d'œuvres telles que Kinoautomat de Radúz Činčera, SAM - Sound Activated Mobile d'Edward Ihnatowicz et Glowflow de Myron Krueger, des artistes ont développé, dès les années 1960, des installations artistiques engageant des situations d'interaction collective co-localisée inédites, c'est-à-dire impliquant plusieurs voire de nombreux spectateurs interagissant dans le même lieu via et avec un dispositif informatique. Le nombre de ces travaux ne cesse d'augmenter depuis le début du 21ème siècle, profitant des nouvelles opportunités offertes par les avancées dans les technologies de vision par ordinateur en temps réel et par l'avènement de l'informatique ubiquitaire marquée par la multiplication et l'interopérabilité des appareils informatiques mobiles. Si les expériences en la matière sont de plus en plus fréquentes, elles n'ont jusqu'à ce jour fait l'objet d'aucune analyse structurée et, encore moins, de propositions d'outils et de méthodes de conception dédiés. Comment, aujourd'hui, concevoir de tels dispositifs artistiques interactifs dont la complexité intrinsèque implique des questions aussi bien de l'ordre technique, social, cognitif qu'esthétique ? Cette thèse met à contribution des travaux antérieurs dans les domaines de l'interaction homme-machine (IHM), du travail coopératif assisté par ordinateur (TCAO) et des arts interactifs dans le but d'accroître notre connaissance quant aux défis auxquels sont confrontés à la fois les artistes et les participants de telles installations et, au-delà, les concepteurs de ces dispositifs en devenir. Un ensemble d'outils et de lignes directrices sont proposés pour la conception de systèmes d'interaction collective co-localisée pour les installations d'art numérique. Est d'abord développé un système de classification centré sur les aspects les plus décisifs permettant l'émergence d'une expérience collective. Deux approches différentes sont ensuite explorées pour trouver les bases d'un langage de modélisation graphique pour l'analyse et la conception de tels dispositifs. S'appuyant sur les réseaux de Petri, la deuxième approche permet de modéliser aussi bien les ressources spatiales et matérielles d'une installation, que les interactions homme-machine, humain(s)-humain(s) et humain(s)-machine(s)-humain(s). Les investigations menées pour cette recherche ont nécessité de mettre un accent particulier sur les conditions - qu'elles soient spatiales, matérielles ou humaines - qui affectent la capacité pour les participants de telles installations de co-construire une expérience esthétique commune en l'absence d'orchestration ou d'un objectif pré-annoncé à atteindre. Si cette approche singulière concerne en premier lieu les arts interactifs, elle peut revêtir également un caractère pertinent pour d'autres communautés de recherche, y compris et en premier lieu, celle de l'IHM, ainsi que celles du TCAO, des Nouvelles interfaces pour l'expression musicale (NIME), du design d'interaction ou encore de la culture, en particulier de la muséographie
With works such as Kinoautomat by Radúz Činčera, SAM - Sound Activated Mobile by Edward Ihnatowicz, and Glowflow by Myron Krueger, artists have deployed, as early as the 1960s, art installations engaging novel situations of collective co-located interaction, i.e involving multiple or even many spectators interacting in the same place via and with a digital apparatus. The number of those works has continued to increase since the beginning of the 21st century, taking advantage of the new opportunities offered by advances in real-time computer vision technologies and the advent of ubiquitous computing marked by the multiplication and interoperability of mobile computing devices. While experiences in this area are more and more frequent, they have not yet been the subject of structured analysis and, even less, of proposals for dedicated tools and design methods. How can we, nowadays, conceive such interactive art installations whose intrinsic complexity involves questions of the technical, social, cognitive and aesthetic order? This dissertation draws on previous work in the fields of human-computer interaction (HCI), computer-supported cooperative work (CSCW), and interactive arts research with the aim of increasing our knowledge of the challenges faced both by art practitioners and participants in such collective interactive installations, and, beyond, the designers of apparatus in a promising future. A set of tools and guidelines are proposed when designing collective co-located interactions for digital art installations. First a classification system is developed centered on the most decisive aspects that allow the emergence of a collective experience. Two distinct approaches are then explored to find the bases of a graphical modeling language for the design and analysis of such apparatus. Build on top of Petri nets, the second approach supports modeling the spatial and material resources of an installation, as well as the human-machine, human-human and human-machine-human interactions. The investigations conducted for this research have required laying particular emphasis on the conditions - whether spatial, material, or human - which affect the ability for participants to co-construct a common aesthetic experience in the absence of orchestration or a preannounced goal to be achieved. While this singular approach primarily concerns interactive arts, it may be relevant to a wide range of research communities, including, and foremost, that of HCI, as well as CSCW, New Interfaces for Musical Expression (NIME), interaction design, and even culture, museography in particular
APA, Harvard, Vancouver, ISO, and other styles
37

Gharbi, Rim. "Le rôle des communautés virtuelles d'intérêt dans la communication et la co-création de valeur pour les innovations : le cas des énergies renouvelables." Thesis, Montpellier, 2016. http://www.theses.fr/2016MONTD043.

Full text
Abstract:
Ce travail aborde la question du rôle des communautés virtuelles d'intérêt dans la communication et la co-création de valeur pour les énergies renouvelables en tant qu'innovation. Malgré la multiplicité et diversité des études portant sur les communautés virtuelles, la connaissance, à la fois théorique et pratique, de la manière avec laquelle les membres de ces communautés virtuelles communiquent et co-créent de la valeur pour les innovations demeure limitée. Deux champs théoriques complémentaires ont été mobilisés, la théorie de l'acteur-réseau et la théorie du Lead user, afin de mieux comprendre comment s'effectue cette communication et co-création de valeur pour les énergies renouvelables au sein des « réseaux des communautés virtuelles » et d’élaborer un cadre d'analyse et conceptuel appropriés. Pour ce faire, trois études ont été menées. Une première étude documentaire a été réalisée pour identifier et recenser les diverses parties prenantes dans la communication et la gestion de valeurs co-créées au sein des réseaux de communautés virtuelles d'intérêt pour les énergies renouvelables. Une seconde étude à été menée sur la base de trois « réseaux des communautés virtuelles d'intérêt pour les énergies renouvelables » dans le but de montrer comment les membres-actants de ces réseaux communiquent et co-créent de la valeur pour cette innovation. Une dernière étude a été réalisée sur la base de 28 entretiens semi-directifs afin de montrer comment les diverses parties prenantes communiquent et gèrent les divers types de valeurs co-créés au sein de ces réseaux. Les résultats obtenus ont permis de conceptualiser deux processus. Un premier processus a été mis en oeuvre afin de montrer comment les membres-actants des communautés virtuelles communiquent et co-créent de la valeur au sein de ces réseaux : le « processus en ligne de communication et de co-création de valeur pour les innovations centré sur l’utilisateur ». Un second processus a été conceptualisé dans le but de mettre en oeuvre la stratégie de communication et de gestion de valeurs cocréées via ces réseaux: le « processus stratégique de communication et de gestion de valeurs co-créées pour les innovations au sein des réseaux des communautés virtuelles ». Par ailleurs,l'implication mutuelle et l'intégration des divers acteurs/actants au sein des réseaux de communautés virtuelles (à savoir les utilisateurs, le réseau en tant qu'actant, les contributions, les valeurs co-créées, ainsi que les community managers) permettent de communiquer, de diffuser, de co-créer collectivement et de redéfinir l'innovation en tant que résultat d'un système d'interactions sociotechniques, favorisant la stabilisation de cette innovation et sa mise en boîte noire
This work addresses the issue of the role of virtual communities of interest in the communication and the co-creation of value for renewables as an innovation. Despite the multiplicity and diversity of studies based on virtual communities, both theoretical and practical knowledge of how members of these virtual communities communicate and co-create value for innovation remains limited. In order to better understand the way of communicating, value co-creating and building an approriate analytical and conceptual framework, two complementary theoretical fields were mobilized : the actor-network theory and the lead user theory. Three studies were conducted. A primary study was conducted to identify the various stakeholders in the communication and the management of co-created value within virtual communities’networks of interest in renewables. A second study was conducted on the basis of three « networks of virtual communities of interest in renewable energies » in order to highlight how members of these networks communicate and co-create values for this innovation. A final study based on 28 interviews was conducted to understand how the various stakeholders communicate and manage diverse types of co-created values within virtual communities’networks related to renewables. Results enable to conceptualize two diverse processes. A first process was implemented to show how members of virtual communities communicate and co-create value within virtual communities’networks of interest in renewable energies: the « online user centred co-creation of value and communication of innovation process ». A second process was established in order to implement the strategy of communication and management of co-created value through virtual communities’networks of interest in innovation: the « strategic process of communication and co-creation of value to innovation management within virtual communities’networks ». Moreover, mutual involvement and integration of various actors within virtual communities’networks (such as : users, networks, contributions, co-created values and community managers) enable to communicate, to diffuse, to co-create collectively,to redefine the innovation as a result of a socio-technical system and to foster the «stabilization» of this innovation
APA, Harvard, Vancouver, ISO, and other styles
38

Piponnier, Martin. "Etude et développement de tableaux non diffractants pour la conception de systèmes imageurs spécialisés." Thesis, Paris 11, 2012. http://www.theses.fr/2012PA112393/document.

Full text
Abstract:
La capacité actuelle d’accéder à des détecteurs très performants et de faible coût amène la communauté des concepteurs de systèmes optiques à un changement de paradigme. Plutôt que de réaliser des caméras généralistes, aptes à réaliser un grand nombre de missions d’observation différentes, il est maintenant de plus en plus courant de développer des systèmes imageurs adaptés à une seule mission et/ou à une seule classe d’objets. Prendre en compte ces connaissances a priori sur la scène et la mission, au moment de la conception, permet d’envisager des systèmes plus simples, mais aussi dotés de nouvelles compétences. L'objectif de la thèse est d'explorer les potentialités des tableaux non diffractants pour la conception de systèmes imageurs spécialisés. Pour cette étude nous considérons l'environnement des drones aéroportés de faible capacité d'emport pour lesquels les systèmes imageurs embarqués doivent être simples et robustes. Nous considérons de plus que la mission du système imageur est de détecter les obstacles. Pour cela, il doit délivrer une information 3D sur la scène observée. Dans un premier temps, j'ai analysé les propriétés d'imagerie du système imageur constitué d'un composant non diffractant et d'un détecteur matriciel. L'analyse comparative de deux composants, l'axicon et le tableau non diffractant, m'a permis de montrer que c'est le second composant qui est le mieux adapté pour remplir ce type de mission. J'ai ensuite réalisé un système imageur de démonstration, ce qui m'a permis au final de mettre en évidence sa capacité à faire de l'imagerie 3D. Cette étude a montré que les tableaux non diffractants ont un très fort potentiel pour réaliser un système imageur simple, robuste et dédié à l'imagerie 3D. Ce travail doit être poursuivi en partenariat avec des industriels pour appliquer la démarche de conception à une mission précise et transformer ce travail théorique en un système industrialisable
Currently, detectors with high performances and a low cost are available and lead the community of optical designers to a new paradigm. Instead of designing generalist cameras, suitable for fulfilling a high number of different observation missions, it is now more and more common to develop imaging systems adapted to a unique mission and/or a unique object class. Taking this a priori knowledge on the observed scene or on the mission into account, at the beginning of the design process, allows us to consider simpler imaging systems with new properties. The aim of this thesis is to investigate the possibilities of nondiffracting array for the design of specialized imaging systems. For this study we consider the environment of unmanned aerial vehicles with a small payload capacity, for which embedded imaging systems must be simple and robust. We consider in addition that the mission of the imaging system is to detect obstacles. To do this, it must provide a 3D information on the observed scene. At first, I have analysed the properties of the imaging system composed by a nondiffracting optical device and a focal plane array. The comparison between two devices, axicon and nondiffracting arrays, allowed me to show that the second one is best suited for achieving this kind of mission. Then, I have made a practical implementation of such an imaging system. Finally, I have used it to demonstrate the 3D imaging property. This study has demonstrated the potential of nondiffracting array to design a simple and robust imaging system dedicated to 3D imaging. This work must be continued in partnership with the industry to apply the co-design process to a more precise mission, transforming this way this theoretical work into an industrial prototype
APA, Harvard, Vancouver, ISO, and other styles
39

Roth, Camille. "Co-evolution in epistemic networks : reconstructing social complex systems." Palaiseau, Ecole polytechnique, 2005. http://www.theses.fr/2005EPXX0057.

Full text
Abstract:
Des agents produisant, manipulant et échangeant des connaissances constituent un système complexe socio-sémantique, dont l’étude représente un défi à la fois théorique, dans la perspective d’étendre la naturalisation des sciences sociales, et pratique, avec des applications permettant aux agents de connaître la dynamique du système dans lequel ils évoluent. Cette thèse se situe dans le cadre de ce programme de recherche. Parallèlement et plus largement, nous nous intéressons à la question de la reconstruction en sciences sociales. La reconstruction est un problème inverse comprenant deux volets complémentaires : (i) la déduction d’observations de haut-niveau à partir de phénomènes de bas-niveau ; et (ii) la reproduction de l’évolution des observations de haut-niveau à partir de la dynamique des objets de bas-niveau. Nous affirmons que plusieurs aspects significatifs de la structure d’une communauté de savoirs sont principalement produits par la dynamique d’un réseau épistémique où co-évoluent agents et concepts. En particulier, nous résolvons le premier volet du problème de la reconstruction en utilisant des treillis de Galois afin de recréer des taxonomies de communautés de savoirs à partir de simples relations entre agents et concepts; nous obtenons de fait une description historique se rapportant à la progression des champs, leur déclin, leur spécialisation ou leurs interactions (fusion ou scission). Nous micro-fondons ensuite la structure de ces communautés de savoirs en exhibant et en estimant empiriquement des processus d’interaction au niveau des agents, en co-évolution avec les concepts au sein du réseau épistémique, qui rendent compte de la morphogenèse et de l’émergence de plusieurs faits stylisés structurels de haut-niveau—il s’agit là du deuxième volet. Nous défendons finalement un point de vue épistémologique concernant la méthodologique générale de reconstruction d’un système complexe qui appuie notre choix d’un cadre coévolutionnaire
Agents producing and exchanging knowledge are forming as a whole a socio-semantic complex system. Studying such knowledge communities offers theoretical challenges, with the perspective of naturalizing further social sciences, as well as practical challenges, with potential applications enabling agents to know the dynamics of the system they are participating in. The present thesis lies within the framework of this research program. Alongside and more broadly, we address the question of reconstruction in social science. Reconstruction is a reverse problem consisting of two issues: (i) deduce a given high-level observation for a considered system from low-level phenomena; and (ii) reconstruct the evolution of high-level observations from the dynamics of lower-level objects. In this respect, we argue that several significant aspects of the structure of a knowledge community are primarily produced by the co-evolution between agents and concepts, i. E. The evolution of an epistemic network. In particular, we address the first reconstruction issue by using Galois lattices to rebuild taxonomies of knowledge communities from low-level observation of relationships between agents and concepts; achieving ultimately an historical description (inter alia field progress, decline, specialization, interaction - merging or splitting). We then micro-found various stylized facts regarding this particular structure, by exhibiting processes at the level of agents accounting for the emergence of epistemic community structure. After assessing the empirical interaction and growth processes, and assuming that agents and concepts are co-evolving, we successfully propose a morphogenesis model rebuilding relevant high-level stylized facts. We finally defend a general epistemological point related to the methodology of complex system reconstruction, eventually supporting our choice of a co-evolutionary framework
APA, Harvard, Vancouver, ISO, and other styles
40

Cornevaux-Juignet, Franck. "Hardware and software co-design toward flexible terabits per second traffic processing." Thesis, Ecole nationale supérieure Mines-Télécom Atlantique Bretagne Pays de la Loire, 2018. http://www.theses.fr/2018IMTA0081/document.

Full text
Abstract:
La fiabilité et la sécurité des réseaux de communication nécessitent des composants efficaces pour analyser finement le trafic de données. La diversification des services ainsi que l'augmentation des débits obligent les systèmes d'analyse à être plus performants pour gérer des débits de plusieurs centaines, voire milliers de Gigabits par seconde. Les solutions logicielles communément utilisées offrent une flexibilité et une accessibilité bienvenues pour les opérateurs du réseau mais ne suffisent plus pour répondre à ces fortes contraintes dans de nombreux cas critiques.Cette thèse étudie des solutions architecturales reposant sur des puces programmables de type Field-Programmable Gate Array (FPGA) qui allient puissance de calcul et flexibilité de traitement. Des cartes équipées de telles puces sont intégrées dans un flot de traitement commun logiciel/matériel afin de compenser les lacunes de chaque élément. Les composants du réseau développés avec cette approche innovante garantissent un traitement exhaustif des paquets circulant sur les liens physiques tout en conservant la flexibilité des solutions logicielles conventionnelles, ce qui est unique dans l'état de l'art.Cette approche est validée par la conception et l'implémentation d'une architecture de traitement de paquets flexible sur FPGA. Celle-ci peut traiter n'importe quel type de paquet au coût d'un faible surplus de consommation de ressources. Elle est de plus complètement paramétrable à partir du logiciel. La solution proposée permet ainsi un usage transparent de la puissance d'un accélérateur matériel par un ingénieur réseau sans nécessiter de compétence préalable en conception de circuits numériques
The reliability and the security of communication networks require efficient components to finely analyze the traffic of data. Service diversification and through put increase force network operators to constantly improve analysis systems in order to handle through puts of hundreds,even thousands of Gigabits per second. Commonly used solutions are software oriented solutions that offer a flexibility and an accessibility welcome for network operators, but they can no more answer these strong constraints in many critical cases.This thesis studies architectural solutions based on programmable chips like Field-Programmable Gate Arrays (FPGAs) combining computation power and processing flexibility. Boards equipped with such chips are integrated into a common software/hardware processing flow in order to balance short comings of each element. Network components developed with this innovative approach ensure an exhaustive processing of packets transmitted on physical links while keeping the flexibility of usual software solutions, which was never encountered in the previous state of theart.This approach is validated by the design and the implementation of a flexible packet processing architecture on FPGA. It is able to process any packet type at the cost of slight resources over consumption. It is moreover fully customizable from the software part. With the proposed solution, network engineers can transparently use the processing power of an hardware accelerator without the need of prior knowledge in digital circuit design
APA, Harvard, Vancouver, ISO, and other styles
41

Ali, Mohamad Jaafar. "Wireless body area networks : co-channel interference mitigation & avoidance." Thesis, Sorbonne Paris Cité, 2017. http://www.theses.fr/2017USPCB252/document.

Full text
Abstract:
L’amélioration de la qualité et de l’efficacité en santé est un réel enjeu sociétal. Elle implique la surveillance continue des paramètres vitaux ou de l’état mental du sujet. Les champs d’applications sont vastes : l’application la plus importante est la surveillance des patients à distance. Les avancées en micro-électronique, capteurs et réseaux sans-fil permettent aujourd’hui le développement de systèmes ambulatoires performants pour le monitoring de paramètres physiologiques, capables de prendre en compte d’importantes contraintes techniques : forte intégration pour la réduction de la taille et faible consommation pour une plus grande autonomie [1]. Cependant, la conception de ce type de réseaux de capteurs médicaux WBANs (Wireles Body Area Networks) se heurte à un certain nombre de difficultés techniques, provenant des contraintes imposées par les capacités réduites des capteurs individuels : basse puissance, énergie limitée et faible capacité de stockage. Ces difficultés requièrent des solutions différentes, encore très embryonnaires, selon l’application visée (monitoring à but médical). La forte mobilité et le changement rapide de la topologie du réseau dévoilent un verrou scientifique et social. En outre, l’interférence de différents capteurs constituant le WBAN augmente la difficulté de la mise en place de ce type de réseaux. De nombreuses solutions dans la littérature ont été étudiées, comme nous allons illustrer dans ce manuscrit, néanmoins elles restent limitées. Nous nous intéresserons tout particulièrement à la gestion des interférences Intra- et Inter-WBAN, leur impacte sur la fiabilité des transmissions (des liens) et la durée de vie de ce type de réseaux. Plus précisément, nous abordons ces problématiques en se basant sur des modélisations théoriques et analytiques et avec une conception pratique des solutions proposées. Afin d’atteindre les objectifs cités ci-dessous, nous abordons quatre solutions : • Une gestion des interférences intra-WBAN • Une gestion coopérative des interférences Inter-WBAN • Une gestion non coopérative des interférences, Inter-WBAN • Une gestion des interférences WBAN dans un contexte IoT Dans la première partie de cette thèse et afin de répondre en partie aux problèmes de gestion des interférences Intra-WBAN. Nous présentons deux mécanismes pour le WBAN : (a) CFTIM qui alloue dynamiquement des slots et des canaux dit- stables (avec un taux d’interférences le bas possible dans le temps) pour réduire les interférences intra-WBAN. (b) IAA ajuste dynamiquement la taille du superframe et limite le nombre de canaux à 2 pour abaisser les interférences Intra-WBAN et ainsi économiser l’énergie. Une validation avec un model probabiliste est proposé afin de valider théoriquement l’efficacité de notre solution. Les résultats de la simulation démontrent l’efficacité du CFTIM et de l’IAA en termes de réduction de la probabilité d’interférence, l’extension de la durée de vie du réseau et l’amélioration du débit et de la fiabilité des transmissions. Notre seconde contribution, propose une gestion coopératives des interférences Inter-WBAN en utilisant des codes orthogonaux. Motivé par un approvisionnement temporel distribué basé sur la norme [2] IEEE 802.15.6, nous proposons deux solutions. (a) DTRC qui fournit à chaque WBAN les connaissances sur les superframes qui se chevauchent. Le second, (b) OCAIM qui attribue des codes orthogonaux aux capteurs appartenant à deux listes de groupe de capteur en interférences de deux WBAN différents (SIL). Les résultats démontrent qu’OCAIM diminue les interférences, améliore le débit et préserve la ressources énergétiques. La troisième partie nous a permis d’aborder la gestion des interférences, mais cette fois ci d’une manière non-coopérative en se basant sur l’affectation couple Slot/Canal. Plus précisément, nous proposons deux schémas basés sur les carrés latins. (...)
A Wireless Body Area Network (WBAN) is a short-range network that consists of a coordinator (Crd) and a collection of low-power sensors that can be implanted in or attached to the human body. Basically, WBANs can provide real-time patient monitoring and serve in various applications such as ubiquitous health-care, consumer electronics, military, sports, etc. [1]. As the license-free 2.4 GHz ISM band is widely used among WBANs and across other wireless technologies, the fundamental problem is to mitigate the resulting co-channel interference. Other serious problems are to extend the network lifetime and to ensure reliable transmission within WBANs, which is an urgent requirement for health-care applications. Therefore, in this thesis, we conduct a systematic research on a few number of research problems related to radio co-channel interference, energy consumption, and network reliability. Specifically, we address the following problems ranging from theoretical modeling and analysis to practical protocol design: • Intra-WBAN interference mitigation and avoidance • Cooperative inter-WBAN interference mitigation and avoidance • Non-cooperative inter-WBAN interference mitigation and avoidance • Interference mitigation and avoidance in WBANs with IoT Firstly, to mitigate the intra-WBAN interference, we present two mechanisms for a WBAN. The first is called CSMA to Flexible TDMA combination for Interference Mitigation, namely, CFTIM, which dynamically allocates time-slots and stable channels to lower the intra-WBAN interference. The second is called Interference Avoidance Algorithm, namely IAA that dynamically adjusts the superframe length and limits the number of channels to 2 to lower the intra-WBAN interference and save energy. Theoretically, we derive a probabilistic model that proves the SINR outage probability is lowered. Simulation results demonstrate the effectiveness and the efficiency of CFTIM and IAA in terms of lowering the probability of interference, extending network lifetime, improving throughput and reliability. Secondly, we address the problem of interference among cooperative WBANs through using orthogonal codes. Motivated by distributed time provisioning supported in IEEE 802.15.6 standard [2], we propose two schemes. The first is called Distributed Time Correlation Reference, namely, DTRC that provides each WBAN with the knowledge about which superframes overlap with each other. The second is called Orthogonal Code Allocation Algorithm for Interference Mitigation, namely, OCAIM, that allocates orthogonal codes to interfering sensors belonging to sensor interference lists (SILs), which are generated based on the exchange of power-based information among WBANs. Mathematically, we derive the successful and collision probabilities of frames transmissions. Extensive simulations are conducted and the results demonstrate that OCAIM can diminish the interference, improve the throughput and save the power resource. Thirdly, we address the problem of co-channel interference among non-cooperative WBANs through time-slot and channel hopping. Specifically, we propose two schemes that are based on Latin rectangles. The first is called Distributed Algorithm for Interference mitigation using Latin rectangles, namely, DAIL that allocates a single channel to a timeslot combination to each sensor to diminish inter-WBAN interference and to yield better schedules of the medium access within each WBAN. The second is called Channel Hopping for Interference Mitigation, namely, CHIM, which generates a predictable interference free transmission schedule for all sensors within a WBAN. CHIM applies the channel switching only when a sensor experiences interference to save the power resource. Furthermore, we present an analytical model that derives bounds on collision probability and throughput for sensors transmissions. (...)
APA, Harvard, Vancouver, ISO, and other styles
42

Pogorelcnik, Romain. "Decomposition by complete minimum separators and applications." Thesis, Clermont-Ferrand 2, 2012. http://www.theses.fr/2012CLF22301/document.

Full text
Abstract:
Nous avons utilisé la décomposition par séparateurs minimaux complets. Pour décomposer un graphe G, il est nécessaire de trouver les séparateurs minimaux dans le graphe triangulé H correspondant. Dans ce contexte, nos premiers efforts se sont tournés vers la détection de séparateurs minimaux dans un graphe triangulé. Nous avons défini une structure, que nous avons nommée 'atom tree'. Cette dernière est inspirée du 'clique tree' et permet d'obtenir et de représenter les atomes qui sont les produits de la décomposition. Lors de la manipulation de données à l'aide de treillis de Galois, nous avons remarqué que la décomposition par séparateurs minimaux permettait une approche de type `Diviser pour régner' pour les treillis de Galois. La détection des gènes fusionnés, qui est une étape importante pour la compréhension de l'évolution des espèces, nous a permis d'appliquer nos algorithmes de détection de séparateurs minimaux complets, qui nous a permis de détecter et regrouper de manière efficace les gènes fusionnés. Une autre application biologique fut la détection de familles de gènes d'intérêts à partir de données de niveaux d'expression de gènes. La structure de `l'atom tree' nous a permis d'avoir un bon outils de visualisation et de gérer des volumes de données importantes
We worked on clique minimal separator decomposition. In order to compute this decomposition on a graph G we need to compute the minimal separators of its triangulation H. In this context, the first efforts were on finding a clique minimal separators in a chordal graph. We defined a structure called atom tree inspired from the clique tree to compute and represent the final products of the decomposition, called atoms. The purpose of this thesis was to apply this technique on biological data. While we were manipulating this data using Galois lattices, we noticed that the clique minimal separator decomposition allows a divide and conquer approach on Galois lattices. One biological application of this thesis was the detection of fused genes which are important evolutionary events. Using algorithms we produced in the course of along our work we implemented a program called MosaicFinder that allows an efficient detection of this fusion event and their pooling. Another biological application was the extraction of genes of interest using expression level data. The atom tree structure allowed us to have a good visualization of the data and to be able to compute large datasets
APA, Harvard, Vancouver, ISO, and other styles
43

Pogorelcnik, Romain. "Décomposition par séparateurs minimaux complets et applications." Phd thesis, Université Blaise Pascal - Clermont-Ferrand II, 2012. http://tel.archives-ouvertes.fr/tel-00824116.

Full text
Abstract:
Nous avons utilisé la décomposition par séparateurs minimaux complets. Pour décomposer un graphe G, il est nécessaire de trouver les séparateurs minimaux dans le graphe triangulé H correspondant. Dans ce contexte, nos premiers efforts se sont tournés vers la détection de séparateurs minimaux dans un graphe triangulé. Nous avons défini une structure, que nous avons nommée 'atom tree'. Cette dernière est inspirée du 'clique tree' et permet d'obtenir et de représenter les atomes qui sont les produits de la décomposition. Lors de la manipulation de données à l'aide de treillis de Galois, nous avons remarqué que la décomposition par séparateurs minimaux permettait une approche de type 'Diviser pour régner' pour les treillis de Galois. La détection des gènes fusionnés, qui est une étape importante pour la compréhension de l'évolution des espèces, nous a permis d'appliquer nos algorithmes de détection de séparateurs minimaux complets, qui nous a permis de détecter et regrouper de manière efficace les gènes fusionnés. Une autre application biologique fut la détection de familles de gènes d'intérêts à partir de données de niveaux d'expression de gènes. La structure de 'l'atom tree' nous a permis d'avoir un bon outils de visualisation et de gérer des volumes de données importantes.
APA, Harvard, Vancouver, ISO, and other styles
44

Audran, Marilyne. "Réseau interpersonnel, coopération et capacité à innover." Thesis, Lyon 2, 2012. http://www.theses.fr/2012LYO22018.

Full text
Abstract:
La thèse vise à étudier l’impact des réseaux interpersonnels sur la capacité à innover (innovativeness) des inventeurs. Les contributions académiques soulignent qu’il existe une forte relation entre les réseaux interpersonnels et la coopération interindividuelle. Le comportement coopératif apparaît comme le meilleur moyen de mener à bien un projet innovant, un projet complexe. Nous énonçons donc l’hypothèse selon laquelle les collaborations répétées au sein d’un réseau d’inventeurs ont une influence sur leur innovativeness. Nous avons choisi d’étudier plus particulièrement la capacité à innover des inventeurs fortement productifs en mobilisant des données sur les co-inventeurs de brevets. Une étude empirique portant sur 1157 inventeurs prolifiques français qui ont obtenu 30477 brevets sur la période 1975-2002 a donc été menée. Les résultats de la régression logistique corroborent notre hypothèse et montrent un impact significatif des collaborations répétées sur la capacité à innover des inventeurs prolifiques
This thesis aims at studying the impact of interpersonal networks on the innovativeness of inventors. The academic literature underlined the strong relation between interpersonal networks and interpersonal cooperation. The cooperative behaviour appears as the best way to success in an innovative project, a complex project. We make here the hypothesis according to which repeated collaborations in a network of inventors have an influence on their innovativeness. We chose to study more particularly the capacity to innovate of strongly productive inventors by mobilizing data on the co-inventors of patents. We run an empirical study concerning 1157 French prolific inventors who obtained 30477 patents over the period 1975-2002. The results of the logistic regression confirm our hypothesis and show a significant impact of repeated collaborations on the capacity of prolific inventors to innovate
APA, Harvard, Vancouver, ISO, and other styles
45

Rahmouni, Mohamed Khaled. "Définition d’un flot de conception basé sur la simulation conjointe du matériel et du logiciel pour des systèmes destinés à la protection des réseaux électriques." Grenoble INPG, 2010. http://www.theses.fr/2010INPG0105.

Full text
Abstract:
Les méthodes de conception et de validation des parties matérielles/logicielles classiquement utilisées chez Schneider Electric ne permettent plus de maitriser complètement la complexité des architectures modernes. Ce travail vise à optimiser le flot de conception des équipements de protection en exploitant des approches basées sur la simulation conjointe du matériel et du logiciel embarqué. Il s’agit d’étendre l’utilisation des techniques de simulation SystemC largement utilisées dans le domaine des systèmes sur puce (SoC) à l’industrie des équipements de protection et plus largement à celle des systèmes sur cartes. En plus du transfert technologique des approches simulation SystemC ainsi que du prototypage virtuel pour résoudre des problématiques d’exploration d’architectures relais, ce travail suggère l’utilisation des prototypes virtuels à des fins qualité en automatisant les tests de validation produit
The methods classically used at Schneider to design and validate the hardware/software relay parts can no longer fully master the complexity of modern architectures. This work aims to optimize the design flow of the relay using system simulation approaches. It is expanding the use of SystemC hardware/software simulation techniques widely used in the Systems on Chip (SoC) domain to the protection relays industry and, more generally, to the systems on board. In addition to the technological transfer for the SystemC simulation approaches and virtual prototyping for solving architecture exploration problems, this work suggests the use of virtual prototypes for ensuring quality specifications by means of automatizing the device testing phase. Furthermore, it has been possible to characterize the execution of real-time software on SystemC timed TLM platforms
APA, Harvard, Vancouver, ISO, and other styles
46

Pichot, Antoine. "Co-allocation de ressources distribuées : architectures, protocoles, optimisation." Phd thesis, Paris, ENST, 2008. http://pastel.archives-ouvertes.fr/pastel-00003806.

Full text
Abstract:
Les applications de calcul intensif nécessitent de plus en plus de ressources. Ces ressources distribuées bien qu'appartenant à des entités juridiques et administratives différentes doivent être associées logiquement temporairement pour constituer une infrastructure virtuelle afin de résoudre un problème scientifique ou fournir un service donné. Une telle infrastructure virtuelle et le réseau sous jacent est appelée une grille. Les modèles actuels d'exploitation des grilles ne permettent pas de coallouer les ressources et n'offre pas une qualité de service prenant en compte les contraintes réseaux et applicatives. Cette thèse fourni une vision de l'état de l'art en matière de Co-allocation. Différentes architectures sont considérés: les Web Services, l'architecture IP Multimedia Subsystem et Generalized Multi-protocol Label Switching. Des extensions aux logiciels de gestion des grilles, ainsi qu'à ces trois architectures sont proposées. Dans un second temps, nous étudions plus en détail le cœur du système de Co-allocation: le protocole de communication entre l'ordonnanceur de la grille et les ordonnanceurs locaux. Enfin, des algorithmes modélisant l'utilisation des ressources de calcul et des ressources réseaux sont proposés pour déterminer quel est la meilleure interaction possible entre le gestionnaire de ressource réseau et celui des ressources de calcul. Un algorithme de Co-allocation est proposé pour améliorer l'efficacité du système. Un modèle analytique est proposé pour prédire et comprendre les performances, des simulations ont permis de vérifier la validité du modèle et des résultats
New computing applications require nowadays a physical distribution of computing resources. These geographically distributed resources belonging to different organizations must be associated logically in order to solve cooperatively a given problem or to provide a given service. The virtual infrastructure corresponding to the set of these distributed and remote resources and to the inherent underlying networking facilities is called a Grid. Present models do not enable network and other resources such as computing or storage to be co-allocated on demand, nor do they guarantee the Quality of Service. The aim of this thesis is first to provide a review of the state of the art on co-allocation. For that purpose, various environments such as Web Services distributed resources management systems, IP Multimedia Subsystem and Generalized Multi-protocol Label Switching architecture are considered. We propose extensions to existing Grid toolkits, WS, IMS and GMPLS for dynamic resource co-allocation provisioning. The suitability of each of these approaches for Grid services provisioning is investigated and compared to the other alternatives. We then analyze a WS based protocol between a global resource coordinator (Grid Scheduler) and local resources managers (local schedulers). Algorithms are proposed to model the possible interactions between the grid scheduler, the network resource manager and the local schedulers. A co-allocation algorithm is proposed to improve the efficiency as seen by the end user and the resource providers. An analytical model is proposed to predict and understand the performance; simulations are run to verify the validity of the model and the results
APA, Harvard, Vancouver, ISO, and other styles
47

Boukouyen, Fatiha. "Analyse compréhensive du comportement opportuniste des acteurs sur les plateformes de co-création." Thesis, Normandie, 2020. http://www.theses.fr/2020NORMC025.

Full text
Abstract:
La littérature des plateformes de co-création s’est généralement focalisée sur les participants (i.e., la foule) et a investigué leurs motivations, leurs caractéristiques et les stratégies qu’ils peuvent adopter (i.e., coopération, compétition, coopétition). C’est ainsi que les chercheurs ont négligé l’étude de l’opportunisme malgré que son importance ait été évoquée dans certains travaux de recherche. Pour combler ce gap théorique, notre recherche a pour objectif d’explorer et de comprendre le comportement opportuniste des acteurs de co-création (i.e., marques, plateformes et participants) dans le contexte virtuel, plus particulièrement celui des plateformes de co-création, et ce en utilisant la méthode de la Netnographie sur deux plateformes de co-création internationales et un forum de discussion dédié à différents créateurs. Le cadre théorique de notre travail de recherche, les principaux résultats et les apports théoriques, méthodologiques et managériaux sont présentés dans les chapitres correspondants
The literature on co-creation platforms has been mainly focused on studying the crowds (i.e., participants) and that by investigating their motivations, their characteristics, and the strategies they use (i.e., cooperation, competition, coopetition). Therefore, researchers did not study opportunism even if its importance has been emphasized in prior research. To fill this gap, our research aims to explore and understand opportunistic behavior of actors or co-creators (i.e., brands, platforms, and participants) in the virtual context, especially that of co-creation platforms, using the method of Netnography in two famous co-creation platforms and a forum which is dedicated to different creators. Our research background, the main results as well as theoretical, methodological, and practical implications are presented in the related chapters
APA, Harvard, Vancouver, ISO, and other styles
48

Ranaivosoa, Rabemananjara Antsa. "Communauté en ligne de co-création d'expérience touristique : le cas de l'Office Régional du Tourisme d'Analamanga (Madagascar)." Phd thesis, Université de Grenoble, 2012. http://tel.archives-ouvertes.fr/tel-00916839.

Full text
Abstract:
L'apparition de nouvelles technologiques de l'information et de la communication, et plus particulièrement l'avènement du Web 2.0, offre des opportunités de co-création de valeur pour les entreprises et leurs clients. La "communauté en ligne de co-création" est une des diverses formes de co-création de valeur identifiées dans la littérature. Ce pendant, la majorité des recherches ont été menées autour des biens tangibles (chaussures de sport pour le cas de Nike, ou le secteur de l'automobile avec BMW). L'objectif de cette recherche est de comprendre en profondeur le concept de co-création de valeur, appliquée au secteur du tourisme (bien intangible),et d'identifier les opportunités qui peuvent s'offrir aux touristes et aux destinations, grâce à une collaboration créative à travers les interactions dans une communauté en ligne. Pour répondre à cette problématique, trois éléments théoriques de base ont été mobilisées: la co-création de valeur, la communauté en ligne et l'expérience touristique. Une étude de cas basée sur une approche qualitative - menée auprès de l'Office Régional du Tourisme ANAlamanga (ou ORTANA) - a permis d'éclairer cette problématique.
APA, Harvard, Vancouver, ISO, and other styles
49

Le, Borgne Yann-Aël. "Learning in wireless sensor networks for energy-efficient environmental monitoring." Doctoral thesis, Universite Libre de Bruxelles, 2009. http://hdl.handle.net/2013/ULB-DIPOT:oai:dipot.ulb.ac.be:2013/210334.

Full text
Abstract:
Wireless sensor networks form an emerging class of computing devices capable of observing the world with an unprecedented resolution, and promise to provide a revolutionary instrument for environmental monitoring. Such a network is composed of a collection of battery-operated wireless sensors, or sensor nodes, each of which is equipped with sensing, processing and wireless communication capabilities. Thanks to advances in microelectronics and wireless technologies, wireless sensors are small in size, and can be deployed at low cost over different kinds of environments in order to monitor both over space and time the variations of physical quantities such as temperature, humidity, light, or sound.

In environmental monitoring studies, many applications are expected to run unattended for months or years. Sensor nodes are however constrained by limited resources, particularly in terms of energy. Since communication is one order of magnitude more energy-consuming than processing, the design of data collection schemes that limit the amount of transmitted data is therefore recognized as a central issue for wireless sensor networks.

An efficient way to address this challenge is to approximate, by means of mathematical models, the evolution of the measurements taken by sensors over space and/or time. Indeed, whenever a mathematical model may be used in place of the true measurements, significant gains in communications may be obtained by only transmitting the parameters of the model instead of the set of real measurements. Since in most cases there is little or no a priori information about the variations taken by sensor measurements, the models must be identified in an automated manner. This calls for the use of machine learning techniques, which allow to model the variations of future measurements on the basis of past measurements.

This thesis brings two main contributions to the use of learning techniques in a sensor network. First, we propose an approach which combines time series prediction and model selection for reducing the amount of communication. The rationale of this approach, called adaptive model selection, is to let the sensors determine in an automated manner a prediction model that does not only fits their measurements, but that also reduces the amount of transmitted data.

The second main contribution is the design of a distributed approach for modeling sensed data, based on the principal component analysis (PCA). The proposed method allows to transform along a routing tree the measurements taken in such a way that (i) most of the variability in the measurements is retained, and (ii) the network load sustained by sensor nodes is reduced and more evenly distributed, which in turn extends the overall network lifetime. The framework can be seen as a truly distributed approach for the principal component analysis, and finds applications not only for approximated data collection tasks, but also for event detection or recognition tasks.

/

Les réseaux de capteurs sans fil forment une nouvelle famille de systèmes informatiques permettant d'observer le monde avec une résolution sans précédent. En particulier, ces systèmes promettent de révolutionner le domaine de l'étude environnementale. Un tel réseau est composé d'un ensemble de capteurs sans fil, ou unités sensorielles, capables de collecter, traiter, et transmettre de l'information. Grâce aux avancées dans les domaines de la microélectronique et des technologies sans fil, ces systèmes sont à la fois peu volumineux et peu coûteux. Ceci permet leurs deploiements dans différents types d'environnements, afin d'observer l'évolution dans le temps et l'espace de quantités physiques telles que la température, l'humidité, la lumière ou le son.

Dans le domaine de l'étude environnementale, les systèmes de prise de mesures doivent souvent fonctionner de manière autonome pendant plusieurs mois ou plusieurs années. Les capteurs sans fil ont cependant des ressources limitées, particulièrement en terme d'énergie. Les communications radios étant d'un ordre de grandeur plus coûteuses en énergie que l'utilisation du processeur, la conception de méthodes de collecte de données limitant la transmission de données est devenue l'un des principaux défis soulevés par cette technologie.

Ce défi peut être abordé de manière efficace par l'utilisation de modèles mathématiques modélisant l'évolution spatiotemporelle des mesures prises par les capteurs. En effet, si un tel modèle peut être utilisé à la place des mesures, d'importants gains en communications peuvent être obtenus en utilisant les paramètres du modèle comme substitut des mesures. Cependant, dans la majorité des cas, peu ou aucune information sur la nature des mesures prises par les capteurs ne sont disponibles, et donc aucun modèle ne peut être a priori défini. Dans ces cas, les techniques issues du domaine de l'apprentissage machine sont particulièrement appropriées. Ces techniques ont pour but de créer ces modèles de façon autonome, en anticipant les mesures à venir sur la base des mesures passées.

Dans cette thèse, deux contributions sont principalement apportées permettant l'applica-tion de techniques d'apprentissage machine dans le domaine des réseaux de capteurs sans fil. Premièrement, nous proposons une approche qui combine la prédiction de série temporelle avec la sélection de modèles afin de réduire la communication. La logique de cette approche, appelée sélection de modèle adaptive, est de permettre aux unités sensorielles de determiner de manière autonome un modèle de prédiction qui anticipe correctement leurs mesures, tout en réduisant l'utilisation de leur radio.

Deuxièmement, nous avons conçu une méthode permettant de modéliser de façon distribuée les mesures collectées, qui se base sur l'analyse en composantes principales (ACP). La méthode permet de transformer les mesures le long d'un arbre de routage, de façon à ce que (i) la majeure partie des variations dans les mesures des capteurs soient conservées, et (ii) la charge réseau soit réduite et mieux distribuée, ce qui permet d'augmenter également la durée de vie du réseau. L'approche proposée permet de véritablement distribuer l'ACP, et peut être utilisée pour des applications impliquant la collecte de données, mais également pour la détection ou la classification d'événements.


Doctorat en Sciences
info:eu-repo/semantics/nonPublished

APA, Harvard, Vancouver, ISO, and other styles
50

Candel, Gaëlle. "Connecting graphs to machine learning." Electronic Thesis or Diss., Université Paris sciences et lettres, 2022. http://www.theses.fr/2022UPSLE018.

Full text
Abstract:
L’objet de cette thèse est de proposer des approches nouvelles permettant l’utilisation d’algorithmes d’apprentissage automatique travaillant usuellement des données tabulaires aux graphes. Un graphe est une structure de donnée composée de nœuds reliés entre eux par des liens. Cette structure peut être représentée sous la forme d’une matrice, où chaque connexion entre de nœuds est représentée par une valeur non nulle, permettant une manipulation des données plus facile. Néanmoins, par leurs différences structurelles, la transposition d’un algorithme exploitant des données tabulaires aux graphes ne donne pas les résultats escomptés. Deux caractéristiques rendent cette adaptation difficile : la faible connectivité des nœuds ainsi que la distribution en loi de puissance du degré des nœuds. Ces caractéristiques conduisent toutes les deux à des matrices creuses pauvres en information tout en nécessitant beaucoup de mémoire de stockage. Dans ces travaux, nous proposons plusieurs manières de prendre en compte ces différences pour deux types de graphes particuliers. Dans la première partie, nous nous intéressons aux graphes de citations et à leur représentation dans l’optique de la veille technologique, tandis que la seconde partie s’adresse aux graphes bipartites utilisés principalement par les systèmes de recommandation. Ces adaptations permettent la réalisation de taches usuelles en apprentissage automatique, telle que le partitionnement et la visualisation des données. Pour le cas des graphes bipartites, des algorithmes spécifiques de co-partitionnement sont proposés pour la segmentation conjointe des deux parties. La troisième partie prend un revers différent. La méthode développée exploite le graphe des k plus proches voisins construit à partir des données tabulaires afin de corriger des erreurs de classifications. Les différentes méthodes développées utilisent diverses approches pour emmagasiner plus d’information dans un vecteur par rapport à l’encodage binaire habituel, permettant de travailler les graphes avec des algorithmes usuel d’apprentissage automatique
This thesis proposes new approaches to process graph using machine learning algorithms designed for tabular data. A graph is a data structure made of nodes linked to each others by edges. This structure can be represented under a matrix form where the connection between two nodes is represented by a non-zero value, simplifying the manipulation of the data. Nonetheless, the transposition of an algorithm adapted to tabular data to graphs would not give the expected results because of the structural differences. Two characteristics make the transposition difficult: the low nodes’ connectivity and the power-law distribution of nodes’ degree. These two characteristics both lead to sparse matrices with low information content while requiring a large memory. In this work, we propose several methods that consider these two graph’s specificities. In the first part, we focus on citation graphs which belong to the directed acyclic graph category and can be exploited for technical watch, while the second part is dedicated to bipartite graphs mainly use by recommender systems. These adaptations permit the achievement of usual machine learning tasks, such as clustering and data visualization. Specific co-clustering algorithms were designed to segment jointly each side of a bipartite graph and identify groups of similar nodes. The third part approaches graphs from a different perspective. The developed approach exploits the k nearest neighbours graph built from the tabular data to help correcting classification errors. These different methods use diverse methods to embed more information in a vector compared to the usual binary encoding, allowing to process graphs with usual machine learning algorithm
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography