Dissertations / Theses on the topic 'Protocole d'analyse'

To see the other types of publications on this topic, follow the link: Protocole d'analyse.

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 17 dissertations / theses for your research on the topic 'Protocole d'analyse.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Auzou, Pascal. "Protocole d'analyse acoustique des dysarthries neurologiques." Rouen, 1993. http://www.theses.fr/1993ROUE131M.

Full text
Abstract:
Ce travail comporte : une revue de a littérature sur les dysarthrites neurologiques, une étape méthodologique analysant la reproductibilité des paramètres utilisés, pour des sons tenus et des syllabes répétées : la fréquence fondamentale, l'intensité, la durée des sons, le VOT. Une analyse acoustique informatique de la parole chez des malades neurologiques. Les principales caractéristiques sont : Pour la dysarthrie parkinsonienne, une instabilité en fréquence fondamentale et en intensité. Pour la disarthrie wilsonienne, une réduction des variations de la fréquence fondamentale de l'intensité. Pour la disarthrie pure, des troubles du contrôle temporel.
APA, Harvard, Vancouver, ISO, and other styles
2

Frémondeau, Delphine. "Rythmes saisonniers des élevages porcins archéologiques : propositions pour un protocole d'analyse isotopique." Paris, Muséum national d'histoire naturelle, 2012. http://www.theses.fr/2012MNHN0023.

Full text
Abstract:
L’objectif de ce travail est de proposer un protocole d’analyse isotopique permettant d’appréhender les rythmes saisonniers en termes de reproduction et d’alimentation des élevages porcins archéologiques. La constitution d’un référentiel a permis de cartographier l’enregistrement du signal isotopique dans la rangée dentaire et de définir un premier protocole de prélèvement et d’analyse. Il a ensuite été testé et ajusté grâce à l’étude de deux assemblages archéologiques (Levroux Les Arènes et Borduşani Popina). Les suinés des référentiels actuels ont été mis à profit pour établir un référentiel hypoplasique, permettant de proposer une nouvelle approche pour étudier la distribution des hypoplasies sur la couronne dentaire. Elle a été appliquée sur trois sites archéologiques : Levroux Les Arènes, Borduşani Popina et Hârşova-tell. La construction des profils de mortalité des deux derniers sites a été l’occasion de comparer deux méthodes permettant d’estimer finement les âges à l’abattage
The objective of this research is to propose a protocol of stable isotope analysis allowing the investigation of the seasonal rhythms of archaeological pig husbandry, in terms of reproduction and diet. A modern reference data set was constituted, allowing the mapping of the isotopic signal record in the mandibular tooth row and the definition of a first sampling protocol. This protocol was then applied and improved through the study of two archaeological assemblages (Levroux Les Arènes and Borduşani Popina). Linear enamel hypoplasia (LEH) was also recorded on the populations of the reference data set. A new way of studying the distribution of LEH on the molar crowns is proposed. This method was applied on three archaeological assemblages: Levroux Les Arènes, Borduşani Popina and Hârşova-tell. The construction of the mortality profiles of the swine from these two sites gave the opportunity to compare two different ageing methods that enable the definition of fine age classes
APA, Harvard, Vancouver, ISO, and other styles
3

Chevalier, Jacques. "Élaboration d'un protocole d'analyse de cycle de vie des procédés : application aux traitements des fumées d'incinération des déchets ménagers." Lyon, INSA, 1999. http://www.theses.fr/1999ISAL0077.

Full text
Abstract:
Ce travail a consisté en l'élaboration d'un protocole d'application de l'analyse de cycle de vie (ACY) aux procédés. Cette thèse a permis : *de démontrer que l'ACY des procédés est possible, *d'affirmer l'ACY comme un outil d'aide à la décision, *de proposer un protocole de réalisation de l'ACY d'un procédé, *d'appliquer ce protocole à l'ACY de deux procédés de traitement des fumées d'incinération d'ordures ménagères. Le protocole mis en place répond aux objectifs suivants: *il rend l'analyse du cycle de vie plus lisible et plus opérationnelle pour un non spécialiste,*il respecte la norme ISO 14040, *il intègre des outils multicritères d'aide à la décision, *il propose de nouvelles méthodes pour combler les lacunes de l'ACY
This work consisted 1n making a protocol for life cycle assessment application to processes. This thesis enabled : *to demonstrate the feasibility of processes LCA, *to state that LCA is a decision making tool, *to propose a protocol to complete a process's LCA, *to apply this protocol to gas treatment processes. This protocol meets the following requirements: *it makes LCA easier to understand and more operational, *it respects the IS014040 standards, *it integrates multicriteria tool for decision making, *it proposes new methods to fill sorne LCA's gaps
APA, Harvard, Vancouver, ISO, and other styles
4

Rivière, Pascal. "Protocole croissant à une variable alternée (PCVA) : nouvelle méthode d'analyse de l'efficacité énergétique dans le cadre des activités physiques à déplacements." Saint-Etienne, 1992. http://www.theses.fr/1992STET6233.

Full text
APA, Harvard, Vancouver, ISO, and other styles
5

Delfour, Christophe. "Mise au point d'un protocole d'analyse du cycle par méthode tri paramétrique en cytométrie de flux : application au cancer du côlon." Montpellier 1, 2000. http://www.theses.fr/2000MON11111.

Full text
APA, Harvard, Vancouver, ISO, and other styles
6

Rousseau, Pascal. "Protocole d'analyse en ligne de molécules chimisorbées sur cendres par procédé plasma hors équilibre en lit fluidisé : applications aux cendres volantes issues d'incinérateurs industriels." Paris 6, 2003. http://www.theses.fr/2003PA066582.

Full text
APA, Harvard, Vancouver, ISO, and other styles
7

Pegeot, Mathieu. "Etudes structurales par RMN des profils Saccharidiques d'Héparanes sulfates et de leur régulation cellulaire : Mise en place d'un protocole de marquage, de purification et d'analyse de chaines entières." Thesis, Grenoble, 2014. http://www.theses.fr/2014GRENV056/document.

Full text
Abstract:
Les glycosaminoglycanes (GAG) forment une famille de polysaccharides linéaires retrouvés dans tous les tissus, au niveau des matrices extracellulaires et des surfaces cellulaires. Les héparanes sulfates (HS) sont des membres importants de cette famille et sont liés à une protéine dite cœur pour former ensemble le protéoglycane (PG). Selon le tissu et la nature de la protéine cœur, les HS, composés d'unités disaccharidiques de N-acétylglucosamine (GlcNAc) et d'acide glucuronique (GlcA) [-4GlcAβ1-4GlcNAcα1-] vont subir de nombreuses modifications. En effet, les HS sont modifiés par différentes sulfatations au niveau des deux oses et une épimérisation de l'acide glucuronique en acide iduronique (IdoA). Les différentes structures saccharidiques élaborées vont pouvoir être alors interagir avec une très grande quantité de protéines et jouer des rôles divers dans l'inflammation, la prolifération cellulaire, l'angiogenèse, la réponse immunitaire, l'attachement viral…L'étude de la structure des HS, du fait de la nature flexible et hétérogène de ces molécules, a été principalement focalisée sur des analyses fragmentaires du polysaccharide au niveau des séquences d'interaction avec les protéines. Lors de ces dépolymérisations, des informations sur le polysaccharide, notamment l'épimérisation, sont perdues.Dans ce travail, nous avons développé une approche basée sur la résonance magnétique nucléaire (RMN) bidimensionnelle 1H-13C pour l'étude de la composition saccharidique des HS réalisée directement à partir des HS isolés de cellules marquées au 13C. Pour cela, un protocole efficace de marquage et de purification des polysaccharides a été mis en place. En intégrant le volume des pics à différents déplacements chimiques par RMN, cette analyse non-destructive permet de déterminer à la fois le profil de sulfatation et d'épimérisation des HS. Cette analyse est appliquée efficacement à différents types cellulaires et est de grand intérêt pour mieux comprendre les changements dans les structures d'HS qui ont lieu lors de régulations physiologiques ou lors de développement pathologiques.Ces résultats ont permis d'ouvrir la voie à l'analyse des HS directement au niveau des cellules par RMN du solide. Les études dans ce contexte représentent un enjeu majeur pour la compréhension des différents rôles des HS et leur capacité à interagir avec une myriade de protéines in vivo
Glycosaminoglycans (GAGs) belong to a linear polysaccharide family which are found within all tissues, at the extracellular matrix and cell surfaces levels. Heparan Sulfates (HS) are one of the major members of this family, they are bound to a core protein to form altogether the so-called proteoglycan (PG). Depending on the localization and on the core protein, the HS – composed of a N-acetylglucosamine (GlcNAc) and a glucuronic acid (GlcA) [-4GlcAβ1-4GlcNAcα1-] building block – undergo various modifications. Indeed, HS can be sulfated at different positions on both monosaccharide and the GlcA can be epimerized into an iduronic acid (IdoA). The fine structures of the polysaccharide will be able to interact with a large range of proteins and play a plethora of roles such as in inflammation processes, cell proliferation, angiogenesis, immune responses, viral attachment…The HS structural studies, due to the flexibility and heterogeneity of the polysaccharide, have so far been restricted to HS fragments able to bind proteins. The depolymerization techniques induce valuable information losses such as epimerization.In this work, we have successfully developed a nuclear magnetic resonance (NMR)-based approach to study HS features from 13C metabolically enriched cells. For this, an effective protocol to label and purify HS has been set up. By integrating peaks' volumes at well-resolved 1H-13C chemical shifts by NMR, the sulfation, epimerization and disaccharide profile can be determined from full-length HS. This method has been used to study HS from various cell types and is of important interest to better understand changes in HS structures that occur through physiologic and pathologic events.The results obtained open the way to analyze HS directly at the cell surface via solid state NMR techniques. In this context, these studies are a major challenge to decipher the different roles of HS and their ability to interact with so many partners in vivo
APA, Harvard, Vancouver, ISO, and other styles
8

Meunier, Valentin. "Unraveling Degradation Patterns in Li-ion Batteries through Electrochemical Analysis Procedures." Electronic Thesis or Diss., Sorbonne université, 2023. http://www.theses.fr/2023SORUS354.

Full text
Abstract:
La chimie des électrodes positives dans les batteries Li-ion gravitent depuis ces vingt dernières années autour d’une famille d’oxydes lamellaire à base de nickel, manganèse et cobalt, aussi appelé phases NMC. La part belle étant faite à l’autonomie des batteries, les recherches visent à accroitre la densité énergétique de ces matériaux en augmentant leur fraction de nickel ainsi que leur tension de fonctionnement. Cependant, à des teneurs en nickel supérieure de 80% et tension de 4.2 V, les phases NMC sont sujettes à une série de dégradations physico-chimiques impliquant le matériau ainsi son interface avec électrolyte. Dégradations structurales, oxydation de l’électrolyte ou dissolution des métaux de transitions sont autant d’exemples illustrant la variété des mécanismes en jeu. Pire encore, les dégradations peuvent en déclencher d’autres et au final c’est toute la cellule qui se retrouve impactée, ce qui peut conduire à une chute brutale de la capacité de la batterie appelé « emballement ». Imprédictible et soudain, les emballements sont difficiles à expliquer avec les descripteurs classiques de performance comme la capacité en décharge (QD) ou l’efficacité coulombique. L’objectif de cette thèse est de développer des protocoles d’analyses combinant des techniques électrochimiques afin d’expliquer la chimie des dégradations en jeu, c’est-à-dire, le type de dégradation, leur localisation, et le tout, de façon quantitative. Ces techniques se basent principalement sur le glissement de capacités en fin de charge et décharge, ainsi que les dérivées dV/dQ et dQ/dV. Afin de mettre place ces techniques, le premier travail était de s’assurer de la qualité des mesures électrochimiques, grâce à la standardisation des méthodes d’assemblage et de test. Une fois les données répétables et de qualité, les protocoles ont permis d’étudier les effets de la dissolution du nickel sur l’électrode de graphite et de mettre en évidence des dégradations inattendues lors de l’utilisation d’un électrolyte super concentré, bien que reconnu pour sa haute stabilité. Les compostions d’électrolyte ont donc pu être adaptées afin de réduire les dégradations et augmenter la durée de vie de la batterie. En résumé, ces protocoles améliore la compréhension des dégradations et ainsi d’optimiser au mieux les conditions de fonctionnement des batteries Li-ion. Cela ouvre la voie vers la stabilisation interfaces et matériaux et le développement de nouvelles chimies
For the past twenty years, the chemistry of positive electrodes in Li-ion batteries has predominantly focused on a group of layered oxides composed of nickel, manganese, and cobalt, commonly referred to as NMC phases. The primary goal of research has been to enhance the energy density of these materials by increasing their nickel content and operating voltage. However, once the nickel content surpasses 80% and the voltage reaches 4.2 V, the NMC phases become susceptible to a range of physicochemical degradations involving both the material itself and its interaction with the electrolyte. Structural degradation, electrolyte oxidation, and the dissolution of transition metals exemplify the various mechanisms at play. Furthermore, these deteriorations can trigger additional ones, ultimately affecting the entire battery cell and causing a sudden decline in battery capacity referred to as “rollover”. The unpredictable and abrupt nature of rollover poses challenges for conventional performance indicators like discharge capacity (QD) or coulombic efficiency in explaining them. The objective of this thesis is to develop analysis protocols that combine electrochemical techniques to comprehensively elucidate the chemistry underlying these deteriorations. This includes understanding the nature of the deterioration, its localization within the battery, and most importantly, quantifying its impact. These techniques primarily rely on observing the capacity slippages, as well as analyzing the derivatives dV/dQ and dQ/dV. To implement these techniques, the initial step involved ensuring the accuracy of the electrochemical measurements by standardizing the assembly and testing methods. Once reliable and high-quality data were obtained, the protocols facilitated the examination of the effects of nickel dissolution on the graphite electrode, revealing unforeseen deteriorations that occurred when using a highly concentrated electrolyte, despite its recognized high stability. Consequently, adjustments to the electrolyte compositions could be made to mitigate deteriorations and extend the battery's lifespan. In summary, these protocols significantly contribute to our understanding of deteriorations and enable the optimization of operating conditions for Li-ion batteries. This advancement allows for stabilizing interfaces and materials, as well as fostering the development of novel chemical approaches in battery technology
APA, Harvard, Vancouver, ISO, and other styles
9

Jaouën, Alexandre. "Etablissement d'un protocole haut débit d'acquisition et d'analyse d'images pour les études précliniques par microscopie bi-photonique intravitale multispectrale : application à l'étude de la neuroinflammation provoquée par un modèle murin de sclérose en plaque." Thesis, Aix-Marseille, 2017. http://www.theses.fr/2017AIXM0619/document.

Full text
Abstract:
La sclérose en plaques est une maladie chronique, auto-immune et neurodégénérative qui se traduit par l’apparition de plaques inflammatoires démyélinisantes dans le système nerveux central. Pour caractériser la réponse immunitaire innée, j’ai développé des outils d’imagerie optique non linéaire multispectrale intravitale, et des solutions semi automatisées d’analyse d’images. J’ai participé à la mise au point d’un protocole d’identification des phénotypes immunitaires en cytométrie. Ces outils appliqués à l’étude de l’encéphalomyélite auto-immune expérimentale, un modèle murin de SEP, ont permis d’analyser la cascade immunitaire par immunomarquages et marquages fluorescents transgéniques, de décrire les distributions des populations cellulaires dans le SNC, et de les associer à la dégradation axonale sur des échelles de temps de la seconde à la semaine. Sur une lignée de souris transgénique, Thy1-CFP/Cd11c-EYFP/LysM-EGFP, j’ai suivi en microscopie biphotonique l’évolution des densités de cellules fluorescentes dans la moelle épinière pendant plusieurs semaines. J’ai conclu que la dégénération axonale et les déficits moteurs sont corrélés avec l’infiltration par les méninges de neutrophiles et monocytes. Les monocytes se différencient in situ en cellules dendritiques d’origine monocytaire (moDCs) parallèlement à l'activation de la microglie. Ces événements cellulaires, dont la maturation des moDCs sont corrélés avec la résorption de l’inflammation. La méthodologie est en place pour poursuivre ces investigations sur d’autres modèles. L’optimisation du microscope m’a aussi permis d’accéder simultanément au contraste endogène CARS pour visualiser la gaine de myéline
Multiple sclerosis is a chronic auto-immune neurodegenerative disease characterized by the appearance of inflammatory plaques in the central nervous system. To characterize the innate immune response I have developed nonlinear optical tools for intravital multispectral imaging as well as semi-automated image processing solutions. I also contributed to the development of a flow cytometry protocol allowing the identification of immune cell phenotypes. Applied to study of Experimental Autoimmune Encephalomyelitis, a mouse model of MS, these tools have allowed to analyze the immune cascade thanks to immunolabelings and transgenic expression of fluorescence, describe the distributions of cell populations in the CNS with regard to neuron degeneration on time scales ranging from seconds to weeks. On a transgenic mouse line Thy1-CFP/Cd11c-EYFP/LysM-EGFP, I have followed by two-photon microscopy the evolution of fluorescent cells densities in the same area of the spinal cord for several weeks. I conclude that axonal degeneration and motor deficits are correlated with neutrophils and monocytes infiltration from the meninges. The monocytes differentiate in situ in monocyte-derived dendritic cells (moDCs) along with the recruitment of activated microglia. These cellular events correlated with a stabilization/remission phase of the disease. MoDCS maturation thus seems involved in the dampening of inflammation. Methodology and tools are now set for further investigations with other models. The microscope optimization for multicolor excitation allowed me to access simultaneously to the endogenous CARS contrast to visualize the myelin sheath
APA, Harvard, Vancouver, ISO, and other styles
10

Lallemand, Joseph. "Vote électronique : définitions et techniques d'analyse." Thesis, Université de Lorraine, 2019. http://www.theses.fr/2019LORR0135/document.

Full text
Abstract:
Cette thèse porte sur l'étude de différents aspects de la sécurité des protocoles de vote électronique à distance. Ces protocoles décrivent comment organiser des élections par Internet de manière sécurisée. Ils ont notamment pour but d'apporter des garanties de secret du vote, et de vérifiabilité - ie, il doit être possible de s'assurer que les votes sont correctement comptabilisés. Nos contributions portent sur deux aspects principaux. Premièrement, nous proposons une nouvelle technique d'analyse automatique de propriétés d'équivalence, dans le modèle symbolique. De nombreuses propriétés en lien avec la vie privée s'expriment comme des propriétés d'équivalence, telles que le secret du vote en particulier, mais aussi l'anonymat ou la non-traçabilité. Notre approche repose sur le typage: nous mettons au point un système de typage qui permet d'analyser deux protocoles pour prouver leur équivalence. Nous montrons que notre système de typage est correct, c'est-à-dire qu'il implique effectivement l'équivalence de traces, à la fois pour des nombres bornés et non bornés de sessions. Nous comparons l'implémentation d'un prototype de notre système avec les autres outils existants pour l'équivalence symbolique, sur divers protocoles de la littérature. Cette étude de cas montre que notre procédure est bien plus efficace que la plupart des autres outils - au prix d'une perte de précision (notre outil peut parfois échouer à prouver certaines équivalences). Notre seconde contribution est une étude des définitions du secret du vote et de la vérifiabilité - ou, plus précisément, la vérifiabilité individuelle, une propriété qui requiert que chaque votant soit en mesure de vérifier que son propre vote a bien été pris en compte. Nous prouvons, aussi bien dans les modèles symboliques que calculatoire, que le secret du vote implique la vérifiabilité individuelle, alors même que l'intuition et des résultats voisins déjà établis semblaient indiquer que ces deux propriétés s'opposent. Notre étude met également en évidence une limitation des définitions existantes du secret du vote par jeux cryptographiques : elles supposent une urne honnête, et par conséquent expriment des garanties significativement plus faibles que celles que les protocoles visent à assurer. Nous proposons donc une nouvelle définition (par jeu) du secret du vote, contre une urne malhonnête. Nous relions notre définition à une notion de secret du vote par simulation, pour montrer qu'elle apporte des garanties fortes. Enfin, nous menons une étude de cas sur plusieurs systèmes de vote existants
In this thesis we study several aspects of the security of remote electronic voting protocols. Such protocols describe how to securely organise elections over the Internet. They notably aim to guarantee vote privacy - ie, votes must remain secret -and verifiability - it must be possible to check that votes are correctly counted. Our contributions are on two aspects. First, we propose a new approach to automatically prove equivalence properties in the symbolic model. Many privacy properties can be expressed as equivalence properties, such as in particular vote privacy, but also anonymity or unlinkability. Our approach relies on typing: we design a type system that can typecheck two protocols to prove their equivalence. We show that our type system %, together with some additional conditions on the messages exchanged by the protocols, soundly implies trace equivalence, both for bounded and unbounded numbers of sessions. We compare a prototype implementation of our typechecker with other existing tools for symbolic equivalence, on a variety of protocols from the literature. This case study shows that our procedure is much more efficient than most other tools - at the price of losing precision (our tool may fail to prove some equivalences). Our second contribution is a study of the definitions of privacy and verifiability - more precisely, individual verifiability, a property that requires each voter to be able to check that their own vote is counted. We prove that, both in symbolic and computational models, privacy implies individual verifiability, contrary to intuition and related previous results that seem to indicate that these two properties are opposed. Our study also highlights a limitation of existing game-based definitions of privacy: they assume the ballot box is trusted, which makes for significantly weaker guarantees than what protocols aim for. Hence we propose a new game-based definition for vote privacy against a dishonest ballot box. We relate our definition to a simulation-based notion of privacy, to show that it provides meaningful guarantees, and conduct a case study on several voting schemes
APA, Harvard, Vancouver, ISO, and other styles
11

Djaffardjy, Marine. "Pipelines d'Analyse Bioinformatiques : solutions offertes par les Systèmes de Workflows, Cadre de représentation et Étude de la Réutilisation." Electronic Thesis or Diss., université Paris-Saclay, 2023. http://www.theses.fr/2023UPASG059.

Full text
Abstract:
La bioinformatique est un domaine multidisciplinaire qui combine biologie, informatique et statistiques, permettant de mieux comprendre les mécanismes du vivant.Son fondement repose essentiellement sur l'analyse des données biologiques.L'émergence de nouvelles technologies, en particulier les avancées majeures dans le domaine du séquençage, a entraîné une croissance exponentielle des données, posant de nouveaux défis en matière d'analyse et de gestion des données.Pour exploiter ces données, des pipelines sont utilisés, enchaînant des outils et des processus informatiques pour conduire les analyses de manière fiable et efficace. Cependant, la crise de la reproductibilité dans la recherche scientifique souligne la nécessité de rendre les analyses reproductibles et réutilisables par des tiers.Les systèmes de workflows scientifiques ont émergé comme une solution pour rendre les pipelines plus structurés, compréhensibles et reproductibles. Les workflows décrivent des procédures en plusieurs étapes coordonnant des tâches et leurs dépendances de données. Ces systèmes aident les bioinformaticiens à concevoir et exécuter des workflows, et facilitent leur partage et réutilisation. En bioinformatique, les systèmes de workflows les plus populaires sont Galaxy, Snakemake, et Nextflow.Cependant, la réutilisation des workflows fait face à des difficultés, notamment l'hétérogénéité des systèmes de workflows, le manque d'accessibilité des workflows et le besoin de bases de données publiques de workflows. De plus, l'indexation et le développement de moteurs de recherche de workflows sont nécessaires pour faciliter la recherche et la réutilisation des workflows.Dans un premier temps, nous avons développé une méthode d'analyse des spécifications de workflows afin d'extraire plusieurs caractéristiques représentatives à partir d'un ensemble de données de workflows. Notre objectif était de proposer un cadre standard pour leur représentation, indépendamment de leur langage de spécification.Dans un second temps, nous avons sélectionné un ensemble de caractéristiques de ces workflows et les avons indexées dans une base de données relationnelle, puis dans un format structuré sémantique.Enfin, nous avons mis en place une approche pour détecter les similarités entre les workflows et les processeurs, permettant ainsi d'observer les pratiques de réutilisation adoptées par les développeurs de workflows
Bioinformatics is a multidisciplinary field that combines biology, computer science, and statistics, aiming to gain a better understanding of living mechanisms. It relies primarily on the analysis of biological data. Major technological improvements, especially sequencing technologies, gave rise to an exponential increase of data, laying out new challenges in data analysis and management.In order to analyze this data, bioinformaticians use pipelines, which chain computational tools and processes. However, the reproducibility crisis in scientific research highlights the necessity of making analyses reproducible and reusable by others.Scientific workflow systems have emerged as a solution to make pipelines more structured, understandable, and reproducible. Workflows describe procedures with multiple coordinated steps involving tasks and their data dependencies. These systems assist bioinformaticians in designing and executing workflows, facilitating their sharing and reuse. In bioinformatics, the most popular workflow systems are Galaxy, Snakemake, and Nextflow.However, the reuse of workflows faces challenges, including the heterogeneity of workflow systems, limited accessibility to workflows, and the need for public workflow databases. Additionally, indexing and developing workflow search engines are necessary to facilitate workflow discovery and reuse.In this study, we developed an analysis method for workflow specifications to extract several representative characteristics from a dataset of workflows. The goal was to propose a standardized representation framework independent of the specification language. Additionally, we selected a set of workflow characteristics and indexed them into a relational database and a structured semantic format. Finally, we established an approach to detect similarity between workflows and between processors, enabling us to observe the reuse practices adopted by workflow developers
APA, Harvard, Vancouver, ISO, and other styles
12

Hellé, Gwendolyne. "Microsystèmes séparatifs pour l'extraction liquide-liquide des radioéléments dans les protocoles d'analyse." Thesis, Paris 6, 2014. http://www.theses.fr/2014PA066658/document.

Full text
Abstract:
L'analyse radiochimique est indispensable à de nombreuses étapes de la gestion des déchets nucléaires et du contrôle de l’environnement. Un protocole d’analyse comprend généralement plusieurs étapes de séparations chimiques longues, manuelles et difficiles à mettre en œuvre en raison de leur confinement en boite à gants. Il est nécessaire de proposer des solutions innovantes et robustes pour automatiser ces étapes mais aussi réduire le volume de déchets radioactifs et chimiques en fin de cycle analytique. Une solution consiste à miniaturiser les analyses en les réalisant en laboratoire sur puce.L’objectif de cette thèse est de proposer une approche raisonnée de la conception de microsystèmes séparatifs dédiés à l’extraction liquide-liquide de radionucléides. Pour cela le comportement hydrodynamique et les performances d’extraction dans un même microsystème ont été étudiés pour les systèmes Eu(III)-HNO3/DMDBTDMA, Eu(III)-AcO(H,Na)-HNO3/HDEHP et U(VI)-HCl/Aliquat® 336. Une méthodologie a été mise au point pour l’implémentation de l’extraction liquide-liquide en microsystème pour chaque système chimique d’extraction et la comparaison des résultats a permis de mettre en évidence l’influence du rapport des viscosités des phases sur les écoulements. Grâce à la modélisation à la fois de l’hydrodynamique et du transfert de masse en microsystème, les critères liés aux propriétés physiques et cinétiques des systèmes chimiques ont été dégagés afin de proposer une conception rationnelle de microsystèmes à façon. Enfin plusieurs exemples de mises en œuvre de l’extraction liquide-liquide en microsystème pour des applications analytiques applicables dans le domaine du nucléaire comme la séparation U/Co ou le couplage microextraction liquide-liquide/ICP-MS sont décrits
Radiochemical analyses are necessary to numerous steps for nuclear wastes management and for the control of the environment. An analytical protocol generally includes different steps of chemical separations which are lengthy, manual and complicated to implement because of their confinement in glove boxes and because of the hostile chemical and radiochemical media. Thus there is a huge importance to propose innovative and robust solutions to automate these steps but also to reduce the volumes of the radioactive and chemical wastes at the end of the analytical cycle. One solution consists in the miniaturization of the analyses through the use of lab-on-chip.The objective of this thesis work was to propose a rational approach to the conception of separation microsystems for the liquid-liquid extraction of radionuclides. To achieve this, the hydrodynamic behavior as well as the extraction performances have been investigated in one chip for three different chemical systems: Eu(III)-HNO3/DMDBTDMA, Eu(III)-AcO(H,Na)-HNO3/HDEHP and U(VI)-HCl/Aliquat® 336. A methodology has been developed for the implementation of the liquid-liquid extraction in microsystem for each chemical system. The influence of various geometric parameters such as channel length or specific interfacial area has been studied and the comparison of the liquid-liquid extraction performances has led to highlight the influence of the phases viscosities ratio on the flows. Thanks to the modeling of both hydrodynamics and mass transfer in microsystem, the criteria related to physical and kinetic properties of the chemical systems have been distinguished to propose a rational conception of tailor-made chips. Finally, several examples of the liquid-liquid extraction implementation in microsystem have been described for analytical applications in the nuclear field: U/Co separation by Aliquat® 336, Eu/Sm separation by DMDBTDMA or even the coupling between a liquid-liquid extraction chip and the system of detection which is the ICP-MS
APA, Harvard, Vancouver, ISO, and other styles
13

Annichini, Collomb Aurore. "Vérification d'automates étendus : algorithmes d'analyse symbolique et mise en oeuvre." Phd thesis, Université Joseph Fourier (Grenoble), 2001. http://tel.archives-ouvertes.fr/tel-00004334.

Full text
Abstract:
Dans le cadre de la télécommunication, les entreprises développent des protocoles gérant le transfert de données entre machines. Ces protocoles fonctionnent sur le principe d'envoi de messages entre deux parties par l'intermédiaire de canaux non fiables. Pour s'assurer que tous les messages ont bien été reçus, les techniques employées consistent à réémettre les messages perdus et/ou à attendre un laps de temps déterminé avant de conclure à l'échec de la transmission. De plus, les systèmes sont souvent modélisés en fonction de paramètres. Nous avons travaillé sur un modèle mathématique permettant la vérification de spécifications (comportements attendus des systèmes) pour des protocoles manipulant à la fois des compteurs, des files d'attente ou des horloges, ainsi que des paramètres. Le but de l'analyse est de calculer l'ensemble des comportements possibles du système puis de vérifier qu'aucun d'eux ne viole une spécification attendue. Le problème ici est que cet ensemble est infini. En effet, un comportement est fonction des valeurs prises par les variables du système au cours de l'exécution et certaines sont définies sur un domaine infini. Il faut alors pouvoir représenter ces comportements de façon finie et aussi trouver des méthodes pour calculer en un temps fini un ensemble infini. Plus formellement, nous nous sommes placés dans le cadre de l'analyse automatique des systèmes (model-checking). La représentation choisie pour les modèles à compteurs et horloges paramétrés est une extension des matrices de bornes pour laquelle nous avons une méthode exacte d'accélération (calcul en un temps fini d'ensembles de comportements infinis). Du côté pratique, nous avons implanté ces méthodes dans un outil TReX qui est, à notre connaissance, le seul pouvant manipuler de manière exacte des compteurs, des horloges et des files d'attente. Nous avons pu vérifier des exemples conséquents tels que le protocole de retransmission bornée.
APA, Harvard, Vancouver, ISO, and other styles
14

Philippe, Bernard. "Système d'aide à la conception des protocoles expérimentaux en communication homme-machine, fondé sur une méthodologie d'analyse orientée par les objets." Valenciennes, 1993. https://ged.uphf.fr/nuxeo/site/esupversions/60866969-4737-4d1c-bb57-bf7f40582f61.

Full text
Abstract:
Les expérimentations dans le domaine de l'évaluation des interfaces graphiques de communication Homme-Machine, dont le développement est particulièrement long et fastidieux, possèdent à la fois un tronc commun important et de nombreuses variantes dues à la diversité des représentations graphiques à évaluer et des traitements à effectuer. L'objet de cette thèse est de présenter une méthode d'analyse orientée par les objets permettant de décrire un protocole expérimental en termes d'entités modulaires et réutilisables. La méthode développée, appelée MARIGO, Méthode d'Analyse Rationnelle des Interfaces Graphiques Objets, guide l'expérimentateur dans toutes les étapes de la conception de son expérience, et permet d'aboutir à une formalisation du protocole expérimental indépendante du matériel et du langage à partir desquels il sera implémenté. Un exemple d'application de la méthode MARIGO est développé à partir d'une expérience, précédemment réalisée au laboratoire, portant sur l'élaboration d'un modèle d'aide à la décision dans la conduite de processus industriels représentés par des vues graphiques. De manière à pouvoir mettre en œuvre la description d'une expérimentation particulière obtenue à l'aide de la méthode MARIGO, un outil spécifique a été développé. Cet outil, le GIPE, Générateur Interactif de Protocoles Expérimentaux, offre une grande souplesse d'utilisation et permet à l'expérimentateur de pouvoir ainsi se consacrer pleinement à sa tâche, sans se préoccuper des problèmes, non négligeables, engendrés par la mise en œuvre du système informatique support de l'expérience.
APA, Harvard, Vancouver, ISO, and other styles
15

Paradis, Anne-Lise. "Exploration par IRM fonctionnelle de la perception visuelle des formes tridimensionnelles ; dessin de paradigmes d'acquisition et outils d'analyse appliqués au domaine de la vision." Phd thesis, Université Paris-Sorbonne - Paris IV, 2001. http://tel.archives-ouvertes.fr/tel-00157092.

Full text
Abstract:
Nous avons étudié, chez l'homme, les bases neurales de la perception du relief à partir du mouvement visuel, en utilisant l'Imagerie par Résonance Magnétique fonctionnelle (IRMf). Au cours de ce travail, l'élaboration et l'analyse des protocoles expérimentaux en imagerie sont apparues comme des problèmes à part entière, très liés aux questions neurophysiologiques posées par l'expérimentateur. Dans ce document, nous introduisons la notion de cartographie fonctionnelle afin de mettre en évidence le rôle de l'imagerie fonctionnelle en neurosciences. Nous détaillons ensuite le contexte théorique et expérimental de la perception visuelle du mouvement et des formes. En ce qui concerne les méthodes, nous présentons brièvement la technique d'IRMf. Nous expliquons également les principes du dessin de protocole en imagerie, notamment des protocoles dits événementiels, et nous exposons les méthodes d'analyse du signal IRMf utilisées. Nous décrivons enfin plusieurs expériences: l'une d'elles a été réalisée spécifiquement pour la mise en oeuvre de l'approche événementielle en IRMf; les autres sont des applications dédiées à l'étude du système visuel, présentées dans une perspective méthodologique. Trois séries d'expériences ont été réalisées pour explorer la perception des formes 3D à partir du mouvement. Les deux premières ont été effectuées en vision passive, en présentant aux sujets plusieurs stimuli de mouvement visuel, contenant ou non une information 3D. La troisième fait intervenir une tâche dirigeant l'attention des sujets vers diverses caractéristiques d'une surface 3D en mouvement. La richesse des thèmes abordés au cours de ce travail nous a notamment permis de nous interroger sur la notion de hiérarchie de traitement visuel, la ségrégation des voies dorsale et ventrale et l'influence de l'attention sur l'activité corticale.
APA, Harvard, Vancouver, ISO, and other styles
16

Ebelin, Marie-Eve. "Evaluation pharmacocinetique et/ou pharmacodynamique par l'approche de population : protocoles d'etude, methodologie d'analyse des donnees et application a des molecules d'interet therapeutique au cours de leur developpement." Aix-Marseille 2, 1995. http://www.theses.fr/1995AIX22959.

Full text
APA, Harvard, Vancouver, ISO, and other styles
17

Mattioda, Christophe. "Développement de méthodes d'analyses alternatives des polluants organiques persistants dans les échantillons de fumées d'incinération : application du protocole à leur suivi à l'émission des usines d'incinération et dans l'environnement." Rennes 1, 2006. http://www.theses.fr/2006REN1S024.

Full text
Abstract:
"Le travail présente le développement d'un protocole permettant le dosage des dioxines, des PCB " dioxin-like " et des HAP contenus dans un même échantillon issu de prélèvements de fumées d'incinérateurs. Dans un premier temps, des méthodes alternatives de dosages de ces composés ont été développées en utilisant la spectrométrie de masse basse résolution (GC-MS/MS). Une méthode de purification sur cartouches prêtes à l'emploi a également été développée. Elle offre des résultats comparables à ceux obtenus à l'aide de la méthode traditionnelle sur colonnes ouvertes. Le protocole a été utilisé pour l'analyse des polluants émis par les usines d'incinération. L'influence de la typologie des usines sur les émissions a été testée. Une étude de suivi environnemental a également été menée. "
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography