Letteratura scientifica selezionata sul tema "Instrumentation à faible coût"

Cita una fonte nei formati APA, MLA, Chicago, Harvard e in molti altri stili

Scegli il tipo di fonte:

Consulta la lista di attuali articoli, libri, tesi, atti di convegni e altre fonti scientifiche attinenti al tema "Instrumentation à faible coût".

Accanto a ogni fonte nell'elenco di riferimenti c'è un pulsante "Aggiungi alla bibliografia". Premilo e genereremo automaticamente la citazione bibliografica dell'opera scelta nello stile citazionale di cui hai bisogno: APA, MLA, Harvard, Chicago, Vancouver ecc.

Puoi anche scaricare il testo completo della pubblicazione scientifica nel formato .pdf e leggere online l'abstract (il sommario) dell'opera se è presente nei metadati.

Articoli di riviste sul tema "Instrumentation à faible coût":

1

Kambia-Chopin, Bidénam. "Coûts de l’autoprotection et équilibre d’un marché de l’assurance concurrentiel". Articles 79, n. 3 (25 gennaio 2005): 327–47. http://dx.doi.org/10.7202/009903ar.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Résumé Nous considérons un marché concurrentiel de l’assurance en présence d’aléa moral dans lequel le niveau du coût de l’autoprotection de l’assuré est son information privée. Nous caractérisons alors l’équilibre en contrats du marché en supposant qu’il existe deux types d’agents : un type à faible coût marginal de l’effort et un autre dont le coût marginal est élevé. D’une part, nous montrons que le niveau de l’autoprotection de l’agent à l’équilibre est le même que dans la situation d’aléa moral pur. D’autre part, nous montrons qu’à l’équilibre les agents dont le coût marginal de l’effort est élevé obtiennent le même contrat que dans la situation d’aléa moral pur alors que l’autre type d’agents peut obtenir une couverture d’assurance plus faible. Enfin, l’existence de l’équilibre n’est pas toujours garantie.
2

Carpentier, Cécile, e Jean-Marc Suret. "Le coût du capital entrepreneurial". Revue internationale P.M.E. 24, n. 3-4 (24 gennaio 2013): 103–36. http://dx.doi.org/10.7202/1013664ar.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Le coût du financement par les fonds propres (coût du capital) est un élément essentiel de l’évaluation de l’entreprise, mais aussi des opérations de financement et de l’analyse des projets. Toutefois, estimer le coût du capital entrepreneurial est un exercice extrêmement difficile. Les modèles classiques de la finance, adaptés aux grandes entreprises, ne peuvent pas s’appliquer dans ce cadre particulier. Les données de marché, essentielles aux estimations, sont inexistantes. Nous présentons, illustrons et critiquons les principales méthodes proposées en la matière. Nous proposons par ailleurs la seule estimation récente des primes de taille applicable à des entreprises de très faible capitalisation. Ni les pratiques ni les modèles théoriques ne fournissent actuellement de solution satisfaisante au problème de l’estimation du coût du capital entrepreneurial. Nous suggérons donc plusieurs avenues de recherche visant à mieux comprendre et estimer ce coût.
3

Amrani, M. El, e M. Benyahia. "Calcifications vasculaires de l’hémodialysé : bien dépister à faible coût". Néphrologie & Thérapeutique 11, n. 5 (settembre 2015): 314. http://dx.doi.org/10.1016/j.nephro.2015.07.134.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
4

Abekiri, Najib. "Laboratoire à faible coût pour l’enseignement pratique à distance". Projectics / Proyéctica / Projectique 33, n. 1 (29 dicembre 2022): 65–73. http://dx.doi.org/10.3917/proj.033.0065.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
5

Berthier, Thierry, e Gérard de Boisboissel. "Robotique à faible coût : métriques de la dissémination, usages malveillants et LAD". Revue Défense Nationale N° 865, n. 10 (11 dicembre 2023): 43–51. http://dx.doi.org/10.3917/rdna.865.0043.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
La dissémination rapide de la robotique à faible coût est désormais une réalité opérationnelle. Il est aisé de se procurer des engins suffisamment performants et de les employer à des fins terroristes ou criminelles. Dès lors, il est urgent de déployer des capacités de lutte anti-drones avec des solutions innovantes et développées sans délais rédhibitoires.
6

Sahi, Samira, Hocine Djidjelli, Souad Touazi e Amar Boukerrou. "Valorisation des déchets ligno-cellulosiques pour la préparation d’un nouveau matériau composite PVC/farine des noyaux de dattes". Matériaux & Techniques 109, n. 1 (2021): 102. http://dx.doi.org/10.1051/mattech/2021014.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Afin de limiter l’utilisation des énergies fossiles et de valoriser les déchets ligno-cellulosiques, les composites à fibres naturelles s’inscrivent dans un contexte favorable qui permettra de répondre à des enjeux environnementaux, économiques et sociaux grâce à leurs propriétés de faible coût, faible densité, renouvelables et de biodégradabilité. L’objectif de cette étude est de développer un nouveau matériau composite constitué d’une matrice thermoplastique, le polychlorure de vinyle (PVC), renforcée par des fibres naturelles à base des noyaux de dattes (FND) avec des taux de charge allant de 10 à 40 % massique. Différentes techniques d’analyses ont été utilisées pour étudier les propriétés mécaniques, morphologiques et la perméabilité d’eau des échantillons obtenus. Les résultats enregistrés indiquent que la contrainte à la rupture diminue avec l’augmentation du taux de charge en FND tandis que la rigidité augmente. L’analyse morphologique par microscopie électronique à balayage (MEB) montre une meilleure dispersion pour de faible taux de charge en FND. Une très faible absorption d’eau a été enregistrée.
7

Declerck, Francis. "Volatilité des prix des matières premières et gestion de risques par les agro-industries". Économies et Sociétés. Systèmes agroalimentaires 42, n. 1130 (2008): 2285–95. http://dx.doi.org/10.3406/esag.2008.968.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Pour les industriels de l’agro-alimentaire, les prix des matières agricoles sont de plus en plus volatils. La volatilité du prix du blé en est une illustration. La recherche présentée montre comment les industriels peuvent tirer parti de l’augmentation de la volatilité des cours à l’aide de couvertures de risques de prix sur marchés à terme, à un coût très faible.
8

Jenkyn, Krista Bray, Jeffrey S. Hoch e Mark Speechley. "How Much Are We Willing to Pay to Prevent A Fall? Cost-Effectiveness of a Multifactorial Falls Prevention Program for Community-Dwelling Older Adults". Canadian Journal on Aging / La Revue canadienne du vieillissement 31, n. 2 (24 maggio 2012): 121–37. http://dx.doi.org/10.1017/s0714980812000074.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
RÉSUMÉCette étude a examiné le rapport coût-efficacité d’un programme multifactoriel de prévention des chutes et a évalué le compromis entre les coûts supplémentaires d’un tel programme et une augmentation de la réduction des chutes accidentelles. Le rapport coût-efficacité a été évalué en utilisant le rapport coût-efficacité différentiel traditionnel (RCED) et cadre de régression de l’avantage net (CRAN). En utilisant du CRAN, la prise de décision a été officialisée par l’incorporation, a priori, d’une predisposition à payer (PAP). Les résultats n’ont pas fourni preuve qu’un programme multifactoriel de prévention des chutes a été rentable. L’adhésion des participants au recommandations allaient de faible (41,3%) à modéré (21,1%), à élevé (37,6%). Un défi futur sera de comprendre plus clairement la relation entre la personne âgée qui habite à une communauté avec les risques de chutes qui sont potentiellement modifiables, le respect des recommandations concernant les facteurs de risque multifactoriels, les coûts, et les effets qui en résultent de pratiques pour prévenir les chutes. Les futures évaluations économiques des interventions pour éviter les chutes restent nécessaires et devraient tenir compte du CRAN afin que les outils de régression puissent faciliter l’analyse coût-efficacité.
9

Niro, J., e O. Raspado. "Comment je fais… un dispositif monotrocart de cœlioscopie à faible coût". Gynécologie Obstétrique & Fertilité 43, n. 11 (novembre 2015): 748–50. http://dx.doi.org/10.1016/j.gyobfe.2015.08.006.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
10

Boujday, Souhir, e Michèle Salmain. "Nanoparticules d’or pour les biocapteurs : lecture optique de la reconnaissance moléculaire". Photoniques, n. 106 (gennaio 2021): 39–43. http://dx.doi.org/10.1051/photon/202110639.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Les propriétés extraordinaires des nanoparticules d’or et/ou d’argent en ont fait des objets courtisés par les scientifiques toutes disciplines confondues. L’intensité de leur couleur ainsi que leur grande sensibilité optique au milieu environnant en font de puissants transducteurs pour les biocapteurs ; que ce soit grâce à des spectrophotomètres ou simplement par observation à l’oeil nu. Elles assurent la lecture de la reconnaissance moléculaire via des scénarios variés alliant simplicité et faible coût.

Tesi sul tema "Instrumentation à faible coût":

1

Cesaro, Umberto. "Advanced instrumentation for smart monitoring and automatic diagnostics in industrial and health applications". Electronic Thesis or Diss., Amiens, 2020. http://www.theses.fr/2020AMIE0040.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Dans cette thèse, la faisabilité d'une méthode pour mesurer la quantité de médicament administrée par voie transdermique par spectroscopie d'impédance est démontrée. La thèse prouve la pertinence de la mesure d'impédance pour évaluer la quantité de médicament pénétré dans la peau après l'administration transdermique. En particulier, la quantité mesurée de médicament dépend linéairement de la variation d'amplitude d'impédance normalisée à la valeur prétraitée. Dans cette thèse, la faisabilité d'une méthode pour mesurer la quantité de médicament administrée par voie transdermique par spectroscopie d'impédance est démontrée. Cette thèse est composée de plusieurs parties, brièvement décrites ci-dessous. Le premier chapitre présente un aperçu de la spectroscopie d'impédance électrique et de ses applications. Le deuxième chapitre parle de l'administration transdermique. Ce chapitre montre également la faisabilité d'une méthode pour mesurer la quantité de médicament transportée par voie transdermique. Ensuite, le Drug Under Skin Meter (DUSM), un appareil de bioimpédance à usage général capable de déterminer la quantité de médicament transmis par voie transdermique, est proposé. Dans la thèse, le concept et la conception physique de l'instrument, ainsi que des détails sur sa réalisation et son fonctionnement, sont illustrés. De plus, les résultats expérimentaux obtenus sont illustrés Les résultats indiquent que la quantité de médicament délivré peut être évaluée par des performances métrologiques raisonnables grâce à une mesure unique de l'amplitude de l'impédance à une seule fréquence. Le dispositif prototypé s'est révélé capable d'identifier la quantité de médicament (ml) délivrée dans un tissu testé, en mesurant le spectre d'impédance avant et après administration. Le volume de médicament (ml) véhiculé à travers la peau est évalué en mesurant localement la bioimpédance avant et après l'accouchement. Dans les applications thérapeutiques, l'instrument peut fournir une solution peu coûteuse et cliniquement portable. Ensuite, la caractérisation métrologique, utilisant l'injection comme transfert sous-cutané de référence d'un volume connu de médicament, est rapportée, en laboratoire, in vitro sur les aubergines et ex vivo, sur les cochons d'oreille. Les résultats de la résolution, de la stabilité à court terme, de la reproductibilité interindividuelle des tissus, de la sensibilité, de la répétabilité et de la linéarité indiquent des scénarios remarquables d'applications cliniques pour un tel appareil de bioimpédance. Le chapitre trois montre comment le DUSM pourrait également être utilisé pour surveiller l'absorption d'insuline: un transducteur sur puce, pour surveiller l'insuline réellement bio-disponible après administration en diabétologie clinique, est proposé. La biodisponibilité après administration est évaluée en surveillant la quantité d'insuline sous la peau au moyen d'une mesure de bioimpédance. Un modèle individuel, spécifique à chaque personne lors de chaque injection d'insuline est identifié caractérisé et validé, pour gérer les différences individuelles inter et intra. Les idées de concept, l'architecture et le fonctionnement du transducteur, ainsi que des détails sur son prototype, sont illustrés.Ensuite, la caractérisation et la validation métrologiques sont rapportées en laboratoire, ainsi qu'in vitro sur des aubergines, en utilisant l'injection comme transfert sous-cutané de référence d'un volume connu d'insuline. Les résultats d'une reproductibilité intra-individuelle significative in vitro sur des aubergines indiquent des scénarios notables pour évaluer la biodisponibilité de l'insuline en diabétologie clinique. En tant que branche importante de cette recherche, la possibilité d'étudier les conditions de défaillance dans les installations industrielles a été explorée dans le chapitre 4. Enfin deux travaux collatéraux développés au cours de cette période d'études sont présentés
In this thesis, the feasibility of a method to measure the quantity of drug administered transdermally by impedance spectroscopy is demonstrated. The thesis proves the relevance of the impedance measurement to assess the quantity of drug penetrated into the skin after transdermal administration. In particular, the measured quantity of drug depends linearly on the variation in amplitude of impedance normalized to the pretreated value. In this thesis, the feasibility of a method to measure the quantity of drug administered transdermally by impedance spectroscopy is demonstrated.This thesis is made up of several parts, briefly described below. The first chapter presents an overview of electrical impedance spectroscopy and its applications. The second chapter talks about transdermal administration. This chapter also shows the feasibility of a method to measure the amount of drug transported transdermally. Next, the Drug Under Skin Meter (DUSM), a general purpose bioimpedance device capable of determining the amount of drug transmitted transdermally, is proposed. In the thesis, the concept and physical design of the instrument, as well as details on its production and operation, are illustrated. In addition, the experimental results obtained are illustrated The results indicate that the quantity of drug delivered can be evaluated by reasonable metrological performance by a single measurement of the amplitude of the impedance at a single frequency. The prototyped device has been shown to be able to identify the amount of drug (ml) delivered to a test tissue, by measuring the impedance spectrum before and after administration. The volume of drug (ml) transported through the skin is evaluated by locally measuring the bioimpedance before and after childbirth. In therapeutic applications, the instrument can provide an inexpensive and clinically portable solution. Then, the metrological characterization, using the injection as reference subcutaneous transfer of a known volume of drug, is reported, in laboratory, in vitro on eggplants and ex vivo, on ear pigs. The results of resolution, short-term stability, interindividual tissue reproducibility, sensitivity, repeatability and linearity indicate remarkable scenarios of clinical applications for such a bioimpedance device. Chapter three shows how the DUSM could also be used to monitor insulin absorption: a transducer on a chip, to monitor insulin that is actually bio-available after administration in clinical diabetology, is proposed. Bioavailability after administration is assessed by monitoring the amount of insulin under the skin using a bioimpedance measurement. An individual model, specific to each person during each insulin injection is identified, characterized and validated, to manage the individual inter and intra differences. Ideas of concept, architecture and operation of the transducer, as well as details on its prototype, are illustrated. Then, metrological characterization and validation are reported in the laboratory, as well as in vitro on eggplants, using injection as a reference subcutaneous transfer of a known volume of insulin. The results of significant intra-individual reproducibility in vitro on eggplants indicate significant scenarios for assessing the bioavailability of insulin in clinical diabetology. As an important branch of this research, the possibility of studying failure conditions in industrial plants was explored in Chapter 4. Finally two collateral works developed during this study period are presented
2

Polonovski, Jean-Pierre. "Conversion numérique analogique à faible coût". Paris 11, 1985. http://www.theses.fr/1985PA112378.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Deux méthodes de conversion numérique analogique sont investiguées. La première consiste en un moyennage d'un signal numérique de rapport de cycle donné. La seconde utilise deux capacités commutées de même valeur
Two D/A conversion techniques are discussed. The first one consists on averaging a digital signal of a given duty cycle. The second one uses two equal switched capacitors
3

Dehaese, Nicolas. "Etude et simulation d'un système sur puce radiofréquence pour les applications faible coût et faible consommation". Aix-Marseille 1, 2005. http://www.theses.fr/2005AIX11066.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
L'objet de ce travail de thèse a été l'étude et la simulation d'un système sur puce pour des applications faible coût, faible consommation. Dans un premier temps, à partir d'une étude bibliographique, un ensemble de critères d'aide à la définition d'une architecture radiofréquence pour de telles applications a été proposé. Une architecture pour une application propriétaire a alors été définie. En outre, un détecteur FSK asynchrone basé sur la technique ZIFZCD (Zero Intermediate Frequency Zero Crossing Demodulator) a été développé. L'adaptabilité de la solution architecturale retenue au standard 802. 15. 4 (ZigBee) a également été étudiée. Nous avons ensuite développé plusieurs plates-formes de modélisation de la chaîne de communication afin d'évaluer les performances du système (taux d'erreur sur les bits) en présence de différentes imperfections tout en optimisant le temps de calcul. Deux approches complémentaires ont été suivies. Une approche Top-Down (haut niveau vers bas niveau) a permis de proposer un premier dimensionnement de la chaîne et de déterminer un ensemble de contraintes sur différentes imperfections afin d'apporter un maximum d'informations aux concepteurs. Les caractéristiques simulées des blocs réalisés ont alors été détaillées et comparées aux recommandations systèmes. Une approche Bottom-Up (bas niveau vers haut niveau) a permis de valider la fonctionnalité de la chaîne en tenant compte des caractéristiques des éléments conçus au niveau transistor. En outre, cela a permis de valider la méthode de conception proposée dans la première partie de l'étude. Différentes contraintes sur les parties non décrites au niveau transistor ont enfin été établies
4

Camus, Manuel. "Architecture de réception RF très faible coût et très faible puissance : application aux réseaux de capteurs et au standard ZigBee". Phd thesis, Université Paul Sabatier - Toulouse III, 2008. http://tel.archives-ouvertes.fr/tel-00309926.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Le travail présenté ici s'inscrit dans la perspective du développement de modules électroniques à très faible coût et à très faible consommation pour les réseaux de capteurs sans fils (WSN). Il traite de la conception et du test d'une chaîne de réception RF compatible avec la norme IEEE 802.15.4 pour la bande ISM 2.4GHz. L'interface RF objet de notre étude inclue toutes les fonctions depuis l'antenne jusqu'au 1er étage du filtre analogique en bande de base, à partir duquel le gain devient suffisant pour masquer le bruit introduit par le reste de la chaîne de réception. Ce mémoire articulé autour de quatre chapitres, décrit toutes les étapes depuis la définition des spécifications de la chaîne de réception jusqu'à la présentation de ses performances, en passant par l'étude de son architecture et la conception de ses différents étages. Suite à l'étude de l'impact des interféreurs IEEE 802.15.4 et IEEE 802.11b présents dans la bande ISM 2.4GHz, une architecture utilisant une fréquence intermédiaire de 6MHz a été retenue. En outre, pour pouvoir répondre aux spécifications fixées, cette architecture est composée de plusieurs étages innovants ou originaux tels qu'un balun intégré trois accès, un amplificateur faible bruit sans inductance, un mélangeur passif piloté par un signal local (OL) à très faible rapport cyclique ainsi qu'un filtre bande de base optimisé en bruit et en linéarité. Intégré dans une technologie CMOS 90nm, ce récepteur occupe une surface de 0.07mm², ou 0.23mm² en incluant le balun intégré, qui représente une réduction de 70% par rapport à l'état de l'art des puces compatibles avec le standard IEEE 802.15.4. En prenant en compte la consommation dynamique de toute la chaîne de mise en forme du signal OL, la tête de réception précédemment décrite consomme seulement 4mA sous une tension d'alimentation de 1.35V. Enfin, en incluant le balun intégré, le gain est de 35dBv/dBm, le facteur de bruit de 7.5dB, l'IIP3 de -10dBm et la réjection d'image supérie ure à 32dB. Ces performances placent ce récepteur parmi les récepteurs RF les plus performants pour cette application. Les nombreux principes mis en Suvre sont par ailleurs transposables à d'autres bandes de fréquences et à d'autres standards de communication.
5

Druga, Mirela. "Méthodologie de conception d’aérogénérateurs optimaux, à faible coût, à destination des sites isolés". Le Havre, 2011. http://www.theses.fr/2011LEHA0021.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Le fort accroissement du petit éolien impose la nécessité de revoir les technologies existantes afin de les adapter à un besoin en plein expansion. Cette thèse développe une démarche de conception et de dimensionnement optimal de petits systèmes éoliens. Le profil statistique de la ressource éolienne, de la consommation et des objectifs du cahier des charges sont pris en compte. Notre choix de génératrice s'est porté sur la MSAP, dans le but de maximiser l’efficacité de la conversion de l’énergie éolienne dans les topologies économiquement viables. Cette étude a permis de mettre en exergue différents scénarios possibles de conduite de ces systèmes et de prévoir la manière de prendre en considération la commande. La simulation basée sur des données de vent enregistrées a permis la validation de nos modèles en situation réelle. L’avantage de notre approche software est d’être modulable et évolutive. En choisissant les paramètres pertinents de chaque élément et en utilisant nos résultats comme base de données, une méthode d’optimisation multicritères sous contraintes pourra être appliquée. Ainsi, une bibliothèque de modèles suivant le site et sa demande énergétique sera construite. Le code développé a la capacité de générer des dimensionnements optimaux, où le coût du kWh est pris en compte, ce qui constitue un des éléments déterminants dans le choix des constructeurs et des utilisateurs
The strong increase of the small wind turbine production requires the review of the existing technologies to suit the expanding need. This thesis develops a design and optimal sizing methodology of stand alone wind systems. The statistical profile of wind resource, the expected consumption and the specification targets are taken into account. Our choice of generator is based on PMSM, in order to maximize the efficiency of the wind energy conversion within economically viable topologies. This study highlights different possible scenarios to drive the system and predicts how to take into account the system control. The simulation using a recorded wind data allowed the validation of our models in real situations. Our software approach advantages are modularity and adaptability. By choosing the relevant settings for each system element and using our results as database, a multi-criteria constrained optimization method can be applied. Therefore a library of models depending on the site and its energy demand could be built in order to expand our approach. The developed code has the ability to generate optimal sizing, where the cost per kWh is taken into account, which is a critical point for manufacturers and users
6

David-Grignot, Stéphane. "Mesure de bruit de phase faible coût à l'aide de ressources de test numériques". Thesis, Montpellier, 2015. http://www.theses.fr/2015MONTS055/document.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Au cours des dernières décennies, l’industrie de la micro-électronique a connu une large démocratisation de l’utilisation des applications de télécommunication. L’amélioration des procédés de conception et de fabrication ont permis de produire des circuits analogiques, mixtes et radiofréquences complexes et hautes performances pour ces applications. Toutefois, le coût de test de ces circuits intégrés représente encore une large part du coût de fabrication. En effet, très souvent, tester des fonctions analogiques ne se résume pas à un test fonctionnel mais signifie mesurer les spécifications du circuit. Ces mesures nécessitent l’utilisation d’instruments dédiés bien plus couteux que les ressources numériques disponibles sur un équipement de test industriel standard. Une des spécifications essentielle mais couteuse à caractériser pour les circuits RF est le niveau de bruit de phase. La technique actuellement utilisée en industrie consiste à capturer le signal à l’aide d’un canal testeur analogique équipé d’un convertisseur analogique-numérique hautes performances ; une transformée de Fourier est alors appliquée sur le signal numérisé et le bruit de phase est mesuré sur le spectre résultant. L’approche proposée dans cette thèse consiste à réaliser la mesure de bruit de phase en n’utilisant que des ressources digitales faible coût. L’idée fondamentale consiste à réaliser la capture 1-bit du signal analogique avec un canal numérique standard et à développer des algorithmes de post-traitement dédiés permettant de retrouver l’information relative au bruit de phase à partir d’une évaluation des temps de passages à zéro du signal. Deux méthodes sont présentées. La première méthode est basée sur une estimation de la fréquence instantanée du signal et une analyse de la dispersion induite par le bruit de phase. Cette méthode impose une contrainte forte quant à la fréquence d’échantillonnage à utiliser et s’est révélée sensible au bruit d’amplitude, limitant la gamme de mesures possibles. Une seconde méthode est alors proposée afin de s’affranchir de ces limitations. A partir de la capture binaire du signal analogique, une reconstruction de la phase instantanée du signal est réalisée, puis filtrée puis caractérisée grâce à un outil usuel d’évaluation de stabilité fréquentielle : la variance d’Allan. Cette technique, robuste au bruit d’amplitude et au jitter, peut être paramétrée et permet une caractérisation efficace du bruit de phase sans contrainte fondamentale. En plus des simulations, ces techniques font l‘objet d’une étude stochastique et sont validées expérimentalement sur différents types de signaux à mesurer – générés artificiellement ou provenant de puces sur le marché – et avec différentes conditions mesures – sur oscilloscope ou sur testeur industriel, en laboratoire et en production –. Une implémentation sur puce est aussi proposée et validée avec un prototype sur FPGA
In recent decades, the microelectronics industry has experienced a wide democratization of the use of telecommunication applications. The improved process design and manufacturing have produced complex and high performance analog, mixed and radio frequency circuits for these applications. However, the test cost of these integrated circuits still represents a large part of the manufacturing cost. Indeed, very often, analog testing is not just a functional test but needs measurements for specification validations. These measurements require the use of dedicated instruments expensive resources on standard industrial test equipment.One of the essential but costly specifications to validate in RF circuitry is the phase noise level. The currently used industrial technique consists in capturing the signal from the circuit under test using an RF tester channel equipped with a high performance analog to digital converter; a Fourier transform is then applied to the digitized signal and the phase noise is measured on the resulting spectrum.The approach proposed in this thesis is to achieve the phase noise measurement using solely digital low-cost resources. The basic idea is to perform 1-bit capture of the analog signal with a standard digital channel and develop post-processing algorithms dedicated for phase noise evaluation from the zero-crossings of the signal.Two methods are presented. The first method is based on an estimate of the instantaneous signal frequency and an analysis of their dispersion induced by phase noise. This method imposes a strong constraint on the sampling frequency to be used and proved to be sensitive to noise amplitude, limiting the range of possible measures. A second method is then proposed to overcome these limitations. From the binary capture of the analog signal, a reconstruction of the instantaneous phase of the signal is carried out, then filtered and characterized by a common tool of frequency stability assessment: the Allan variance. This technique, robust to amplitude noise and jitter, can be parametrized and enables efficient characterization of phase noise without fundamental constraint.In addition to the simulations, these techniques are subject to a stochastic study and are validated experimentally on different types of signals to be measured - artificially generated or from chips on the market - and with different measuring instruments - on oscilloscope or industrial tester, in laboratory and on a production line-. An On-chip implementation is also proposed and validated with a FPGA prototype
7

Troubat, Nicolas. "Régulation autonome du myocarde et activité métabolique lors de tâches à faible coût énergétique". Poitiers, 2009. http://www.theses.fr/2009POIT2295.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Le but principal de ce travail a été d’évaluer l'impact des activités à faible coût énergétique (tâches physiques et cognitives) sur le métabolisme énergétique par des mesures de calorimétrie indirecte et de l'activité autonome du myocarde par des mesures de variabilité de fréquence cardiaque. L'objectif de la première étude a été d'évaluer les effets d'un stress psychologique sur les réponses physiologiques. Les résultats ont suggéré une stimulation du système nerveux sympathique sans changement de l'activité du système parasympathique. Les changements enregistrés en termes de substrats énergétiques et d'activité du système nerveux sympathique ont semblé être due aux fortes exigences cognitives de la situation proposée. Notre seconde étude a eu pour but de tester les effets du froid et d'un travail cognitif sur les réponses physiologiques pendant un travail répétitif. Les résultats ont suggéré que la combinaison du froid et de la tâche cognitive sont responsables de fortes adaptations cardio-respiratoires, énergétiques et musculaires. Les activités à faible coût énergétique (tâches physiques et cognitives) ont entraîné des variations significatives des fonctions physiologiques proches de celles du stress chronique. Ce projet a ouvert de nouvelles pistes de recherche sur la compréhension des phénomènes physiologiques régissant les activités cognitives et l'adaptation humaine à la multiplication des facteurs de stress
The main purpose of this work was to assess the impact of the low cost energy activities (physical and cognitive tasks) on energy metabolism through indirect calorimetry and of automatic regulation of the myocardium through measures of heart rate variability measures. The objective of the first study was to assess the effects of a psychological stress on the physiological responses. The result suggested a stimulation of the sympathetic nervous system with an unchanged of the parasympathetic system activity. Changes recorded in terms of energy substrate and sympathetic nervous system activity appeared to be due to the strong cognitive requirements of the proposed situation. Our second study was intended to test the effects of cold and a cognitive work on the physiological responses during a repetitive work. The results suggested that the combination of cold and cognitive task is responsible for strong cardio-respiratory, energy and muscle adaptations. Low energy cost activities (physical and cognitive tasks) resulted in significant variations of physiological functions which are closed from chronic stress. This project has opened new perspectives of research on the understanding of physiological phenomena governing cognitive activities and human adaptation to the multiplication of stress factors
8

Gaubert, Jean. "Contribution à l'étude d'interfaces analogiques hautes fréquences pour objets communicants à faible coût de fabrication". Habilitation à diriger des recherches, Université de Provence - Aix-Marseille I, 2007. http://tel.archives-ouvertes.fr/tel-00796512.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Le premier chapitre de ce mémoire intitulé "Amplificateurs faible bruit accordés pour systèmes intégrés CMOS" s'intéresse aux méthodes de conception permettant l'intégration complète de l'amplificateur faible bruit d'une (LNA) depuis la gamme des radiofréquences jusqu'à la gamme des fréquences millimétriques. Ces travaux ont été menés dans le cadre de la Thèse de Mathieu Egels et dans le cadre d'une convention de recherche avec la société ST-Microélectronics financée par le Conseil Général des Bouches du Rhône. Le deuxième chapitre est intitulé "Amplificateurs bas niveau large bande pour systèmes intégrés CMOS". Ce chapitre présente les solutions que nous avons développées au laboratoire qui permettent de contrôler la bande passante des amplificateurs faible bruit pour systèmes intégrés destinés aux applications utilisant les normes UWB ainsi que des études plus prospectives sur l'amplification distribuée CMOS pour des applications à très grandes bandes passantes. Dans la dernière partie de ce chapitre nous décrivons nos travaux concernant la mise en boîtier des circuits et systèmes intégrés haute fréquence et large bande. Ces différents travaux ont été réalisés d'une part dans le cadre des Thèses de Mathieu Egels, et de Marc Battista, dans le cadre d'une convention de recherche avec la société ST-Microélectronics financée par le Conseil Général des Bouches du Rhône, et d'autre part dans le cadre de la thèse de Romen Cubillo avec le soutien de la plateforme conception du Centre Intégré de Microélectronique de la région PACA (CIMPACA). Le troisième chapitre "Convertisseurs RF/DC pour la téléalimentation haute fréquence en RFID" décrit nos activités de recherche concernant les circuits et architectures pour la télé-alimentation des circuits intégrés au moyen d'une onde électromagnétique. Les applications ciblées concernent essentiellement les étiquettes électroniques sans contact dans le domaine des fréquences UHF pour lesquelles nous avons développé des circuits et des architectures pour les technologies CMOS standard. Ces travaux ont été réalisés dans le cadre de la Thèse de Emmanuel Bergeret dans le cadre d'une convention de recherche avec la société ST-Microélectronics soutenue par le Conseil Général des Bouches du Rhône. Dans ce mémoire nous nous attacherons à décrire l'état de l'art des différents thèmes de recherche abordés et à situer nos travaux vis-à-vis de cet état de l'art. Le détail de nos travaux de recherche étant disponible dans les différents articles et thèses référencés, nous donnerons dans ce mémoire uniquement les grandes lignes de nos études et les principaux résultats obtenus.
9

Durand, Sylvain. "Commande faible coût pour une réduction de la consommation d'énergie dans les systèmes électroniques embarqués". Phd thesis, Université de Grenoble, 2011. http://tel.archives-ouvertes.fr/tel-00586620.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
La course à la miniaturisation des circuits électroniques pousse à développer des systèmes faible coût, quece soit en terme de consommation d'énergie ou de ressources de calcul. Il est ainsi possible de réduire la consommationen diminuant la tension d'alimentation et/ou la fréquence d'horloge, mais ceci a pour conséquence de diminuer aussila vitesse de fonctionnement du circuit. Une commande prédictive rapide permet alors de gérer dynamiquement un telcompromis, de manière à ce que la consommation d'énergie soit minimisée tout en garantissant de bonnes performances.Les stratégies de commande proposées ont notamment l'avantage d'être très robustes aux dispersions technologiquesqui sont un problème récurrent dans les nanopuces. Des solutions sont également proposées afin de réduire le coût decalcul du contrôleur. Les systèmes à échantillonnage non-uniforme, dont la loi de commande est calculée et mise à jourlorsqu'un événement est déclenché, sont ainsi étudiés. Ce principe permet de réduire le nombre d'échantillons et, parconséquent, d'économiser des ressources de calcul, tout en garantissant de bonnes performances du système commandé.Des résultats de simulation, et surtout expérimentaux, valident finalement l'intérêt d'utiliser une telle approche.
10

Alrammouz, Rouba. "Conception et réalisation d’un système de détection de gaz à faible coût sur substrat flexible". Thesis, Montpellier, 2019. http://www.theses.fr/2019MONTS134.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Les préoccupations actuelles de protection de l’environnement et de la santé publique se focalisent sur la qualité de l’air dans l’industrie, les villes et foyers domestiques. De nos jours, les capteurs de gaz sur papier présentent un intérêt croissant au vu de leur faible coût, leur biodégradabilité, leur flexibilité, et leurs applications dans les textiles, les pansements et les emballages intelligents.L’oxyde de graphène (GO) est un dérivé du graphène qui présente des propriétés électriques, mécaniques et thermiques exceptionnelles. Ce matériau est très prometteur pour le développement de capteurs de gaz peu chers et fonctionnant à température ambiante.Dans ce contexte, cette thèse a pour objectif d’intégrer une couche sensible d’oxyde de graphène dans un papier poreux pour la détection de gaz. La première partie de ce travail est consacrée à la mise au point et à l’optimisation d’un processus de fabrication et de fonctionnalisation de capteurs capacitifs poreux sur papier. Un nouveau processus de réduction locale d’oxyde de graphène sur papier en électrodes est également introduit. Il s’agit de la thermocompression, économique et compatible avec la fabrication grande échelle.La seconde partie du travail porte sur l’étude des propriétés de détection d’humidité et d’ammoniac des capteurs. L’oxyde de graphène sur papier, présente une sensibilité élevée à l’ammoniac, l’humidité étant un gaz interférent. La réduction locale du GO en électrodes, et sa fonctionnalisation par de l’oxyde de zinc augmentent la sensibilité et la sélectivité des capteurs à l’humidité. Les capteurs fabriqués sont répétables, stables, reproductibles et flexibles
Current concerns for environmental protection and public health focus on air quality in industries, cities and households. Nowadays, paper-based gas sensors are of increasing interest due to their low cost, biodegradability, flexibility and applications in e-textiles, e-dressings and e-packaging.Graphene oxide is a derivative of graphene with exceptional electrical, mechanical and thermal properties. Graphène oxide is a promising material for the development of low-cost room temperature gas sensors.In this context, this thesis aims to integrate a graphene oxide sensing layer inside a porous paper substrate for humidity and ammonia detection. The first part of this work focuses on the fabrication, functionalization and optimization of capacitive porous gas sensors on paper. A new local reduction process of graphene oxide into electrodes is introduced. The process is hot-plating, a low cost technique compatible with large scale productionThe second part of this work studies the humidity and ammonia sensing capabilities of the sensors. Graphene oxide on paper exhibits a high sensitivity towards ammonia, with humidity as an interfering gas. The local reduction of graphène oxide into electrodes, and its functionalization with zinc oxide increased the sensitivity and selectivity of the device towards humidity. The fabricated sensors exhibit a good repeatability, reproducibility and flexibility

Capitoli di libri sul tema "Instrumentation à faible coût":

1

"Le jeu faucon/colombe avec un faible coût de conflit". In La théorie des jeux en images, 104–8. EDP Sciences, 2020. http://dx.doi.org/10.1051/978-2-7598-2244-7-040.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
2

"Le jeu faucon/colombe avec un faible coût de conflit". In La théorie des jeux en images, 104–8. EDP Sciences, 2020. http://dx.doi.org/10.1051/978-2-7598-2244-7.c040.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
3

Palier, Bruno. "Que sait‐on du travail ?" In Que sait‐on du travail ?, 160–75. Presses de Sciences Po, 2023. http://dx.doi.org/10.3917/scpo.colle.2023.01.0160.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Depuis plus de trente ans, le travail en France n’est pas conçu comme un atout sur lequel les entreprises et les services publics pourraient s’appuyer pour améliorer leurs produits ou leurs services, mais comme un coût qu’il faut réduire par tous les moyens. C’est ce à quoi s’attellent les politiques économiques françaises, principalement fondées sur des exonérations de cotisations sociales et des aides aux entreprises pour alléger le poids des « charges sociales ». Réduire le coût du travail à tout prix constitue aussi l’essentiel des stratégies des entreprises françaises. L’ensemble a eu pour effet de dévaloriser et d’abîmer le travail en France, en favorisant les emplois de faible qualité, la sous-traitance, l’éviction des plus âgés, la dégradation des conditions et l’intensification du travail.
4

"6. Bonne absorptivité, mauvais transport, faible coût : les cellules en couches minces, organiques, amorphes, pérovskites". In L'énergie solaire photovoltaïque, 83–92. EDP Sciences, 2023. http://dx.doi.org/10.1051/978-2-7598-2924-8.c010.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
5

"5. Bon transport électronique et coût raisonnable, mais faible absorption optique : les cellules en silicium cristallin". In L'énergie solaire photovoltaïque, 67–82. EDP Sciences, 2023. http://dx.doi.org/10.1051/978-2-7598-2924-8.c009.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
6

Koné, Doulaye, Olufunke O. Cofie e Kara Nelson. "Options à faible coût pour la réduction des pathogènes et la récupération des éléments nutritifs des boues de vidange". In L'irrigation avec des eaux usées et la santé, 185–204. Presses de l'Université du Québec, 2011. http://dx.doi.org/10.2307/j.ctv18pgj60.18.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
7

Ochoa-Zezzatti, Alberto, Tania Olivier, Raymundo Camarena, Guadalupe Gutiérrez, Daniel Axpeitia e Irving Vázque. "Intelligent Drones Improved With Algae Algorithm". In Handbook of Research on Emergent Applications of Optimization Algorithms, 279–97. IGI Global, 2018. http://dx.doi.org/10.4018/978-1-5225-2990-3.ch012.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Implement an optimal arrangement of equipment, instrumentation and medical personnel based on the weight and balance of the aircraft and transfer humanitarian aid in a Drone, by implementing artificial intelligence algorithms. This due to the problems presented by geographical layout of human settlements in southeast of the state of Chihuahua. The importance of this research is to understand from a Multivariable optimization associated with the path of a group of airplanes associated with different kind of aerial improve the evaluate flooding and send medical support and goods to determine the optimal flight route involve speed, storage and travel resources for determining the cost benefit have partnered with a travel plan to rescue people, which has as principal basis the orography airstrip restriction, although this problem has been studied on several occasions by the literature failed to establish by supporting ubiquitous computing for interacting with the various values associated with the achievement of the group of drones and their cost-benefit of each issue of the company and comparing their individual trips for the rest of group. There are several factors that can influence in the achievement of a group of Drones for our research we propose to use a Bioinspired Algorithm.
8

Ochoa Ortiz-Zezzatti, Alberto, Tania Olivier, Raymundo Camarena, Guadalupe Gutiérrez, Daniel Axpeitia e Irving Vázque. "Intelligent Drones Improved With Algae Algorithm". In Unmanned Aerial Vehicles, 1–19. IGI Global, 2019. http://dx.doi.org/10.4018/978-1-5225-8365-3.ch001.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Implement an optimal arrangement of equipment, instrumentation and medical personnel based on the weight and balance of the aircraft and transfer humanitarian aid in a Drone, by implementing artificial intelligence algorithms. This due to the problems presented by geographical layout of human settlements in southeast of the state of Chihuahua. The importance of this research is to understand from a Multivariable optimization associated with the path of a group of airplanes associated with different kind of aerial improve the evaluate flooding and send medical support and goods to determine the optimal flight route involve speed, storage and travel resources for determining the cost benefit have partnered with a travel plan to rescue people, which has as principal basis the orography airstrip restriction, although this problem has been studied on several occasions by the literature failed to establish by supporting ubiquitous computing for interacting with the various values associated with the achievement of the group of drones and their cost-benefit of each issue of the company and comparing their individual trips for the rest of group. There are several factors that can influence in the achievement of a group of Drones for our research we propose to use a Bioinspired Algorithm.

Atti di convegni sul tema "Instrumentation à faible coût":

1

Levacher, Daniel, Salim Mezazigh, Eric Vasselin e Jean-Michel Sevin. "Instrumentation et comportement de pieux d'accostage sous faible charge horizontale". In Journées Nationales Génie Côtier - Génie Civil. Editions Paralia, 1996. http://dx.doi.org/10.5150/jngcgc.1996.040-l.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
2

Brown, Robert G. W. "Miniature Instrumentation for Photon Correlation Experiments". In Photon Correlation Techniques and Applications. Washington, D.C.: Optica Publishing Group, 1988. http://dx.doi.org/10.1364/pcta.1988.nit172.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Traditional optical systems for photon correlation laser anemometry and spectroscopy have relied upon physically large and fairly expensive lasers, "bulk-optics" such as lenses of a few inches diameter, large mechanical mounts etc and carefully selected, fragile and bulky photon-counting photomultiplier detectors. In some cases experimental fluid dynamics at a desired position in a flow, perhaps deep inside complex machinery, is physically impossible or very difficult. Similar problems exist with photon correlation spectroscopy, eg., heterodyne experiments. We have investigated and characterized various optical and electro-optical components with the aim of replacing existing photon correlation laser anemometry and spectroscopy techniques in miniaturized form, and with significant cost reduction.
3

Grelle, Austin L., Young S. Park e Richard B. Vilim. "Development and Testing of Fault-Diagnosis Algorithms for Reactor Plant Systems". In 2016 24th International Conference on Nuclear Engineering. American Society of Mechanical Engineers, 2016. http://dx.doi.org/10.1115/icone24-61024.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Argonne National Laboratory is further developing fault diagnosis algorithms for use by the operator of a nuclear plant to aid in improved monitoring of overall plant condition and performance. The objective is better management of plant upsets through more timely, informed decisions on control actions with the ultimate goal of improved plant safety, production, and cost management. Integration of these algorithms with visual aids for operators is taking place through a collaboration under the concept of an operator advisory system. This is a software entity whose purpose is to manage and distill the enormous amount of information an operator must process to understand the plant state, particularly in off-normal situations, and how the state trajectory will unfold in time. The fault diagnosis algorithms were exhaustively tested using computer simulations of twenty different faults introduced into the chemical and volume control system (CVCS) of a pressurized water reactor (PWR). The algorithms are unique in that each new application to a facility requires providing only the piping and instrumentation diagram (PID) and no other plant-specific information; a subject-matter expert is not needed to install and maintain each instance of an application. The testing approach followed accepted procedures for verifying and validating software. It was shown that the code satisfies its functional requirement which is to accept sensor information, identify process variable trends based on this sensor information, and then to return an accurate diagnosis based on chains of rules related to these trends. The validation and verification exercise made use of GPASS, a one-dimensional systems code, for simulating CVCS operation. Plant components were failed and the code generated the resulting plant response. Parametric studies with respect to the severity of the fault, the richness of the plant sensor set, and the accuracy of sensors were performed as part of the validation exercise. The background and overview of the software will be presented to give an overview of the approach. Following, the verification and validation effort using the GPASS code for simulation of plant transients including a sensitivity study on important parameters will be presented. Finally, the planned future path will be highlighted.
4

Pfeifroth, E. M., M. Kubacki, A. Orth, J. P. D. da Silva, G. Hendrix e F. Gallinella. "An Intelligent Drive Solution to Simply Electrify Larger Subsea Valves Such as SSIV". In Offshore Technology Conference. OTC, 2024. http://dx.doi.org/10.4043/35045-ms.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Abstract The offshore industry needs energy-efficient and cost-effective solutions to scale up the energy transition. Through the development of a series of lean, all-electric Subsea Valve Actuators (OTC-32346-MS), most processing valves can now be easily electrified. However, some critical functions are still performed by hydraulically controlled systems due to the high loads required, the safety features demanded, the fact that they are in stand-alone applications, and also because of the offshore industry standard levels of reliability and integrity. This is the case with Subsea Safety Isolation Valves (SSIV), emergency Shutdown Valves (ESDV) or the final elements of High Integrity Protection Systems (HIPPS). This paper describes a novel solution to simply electrify larger subsea valves using a standardized and intelligent drive unit. To complete the electrification of their projects, clients asked us for a solution to electrify large ball valves (8’’ or larger) with fail-safe closure by springs and limited power available. Therefore, different concepts were evaluated considering time-to-market, engineering effort, technology maturity, standardization and industrialization aspects, usability for OEMs and operators, and total costs. Resulting as the most promising concept, a full-scale prototype of an intelligent subsea drive based on the experience of a series of lean all-electric Subsea Valve Actuators (OTC-31083-MS, OTC-32346-MS) was designed and manufactured; with Technology Readiness Level 4 (TRL4) qualification tests starting soon in a pressure chamber emulating up to 4,400 m water depth. The paper explains the main qualification results and various benefits of electrifying large actuators with high loads, such as SSIV or pipeline valves, in different applications. It shows how such actuators can safely be operated with lower power consumption than established hydraulic systems, while enabling maximum controllability, saving costs for consumables, and simplifying the infrastructure. This enables usage in emerging industries like Carbon Capture and Storage (CCS) and offshore hydrogen production. By using proven industrial components that were already qualified in the previous developments, in combination with an embedded digital twin (OTC-31913-MS), it was possible to integrate novel control functions into the solution, like enabling traditional hydraulic-driven valves to perform partial-stroke testing with minimal impact on the production flow during routine testing of the safety function. Additionally, it shows how safety functions such as Emergency Shutdown can be implemented, based on the de-energize to trip safety principle releasing a rapid closure by the actuators’ springs. All these features are combined into a lightweight and retrievable intelligent drive that easily plugs into existing infrastructure and enables control via the existing Subsea Instrumentation Interface Standardization Level 2 (SIIS L2) interface. This work proposes a novel solution to enable the electrification of traditionally hydraulically operated applications by using an intelligent subsea drive. This technology allows subsea actuators with high loads and high safety integrity demands, or even stand-alone functions, to be electrified easily. To accelerate and scale up the energy transition, this solution in combination with a portfolio of linear and rotative Subsea Valve Actuators, is essential to realize a lean all-electric subsea control system.

Rapporti di organizzazioni sul tema "Instrumentation à faible coût":

1

Dufour, Quentin, David Pontille e Didier Torny. Contracter à l’heure de la publication en accès ouvert. Une analyse systématique des accords transformants. Ministère de l'enseignement supérieur et de la recherche, aprile 2021. http://dx.doi.org/10.52949/2.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Cette étude porte sur une des innovations contemporaines liées à l’économie de la publication scientifique : les accords dits transformants, un objet relativement circonscrit au sein des relations entre consortiums de bibliothèques et éditeurs scientifiques, et temporellement situé entre 2015 et 2020. Ce type d’accords a pour objectif affiché d’organiser la transition du modèle traditionnel de l’abonnement à des revues (souvent proposées par regroupements thématiques ou collections) vers celui de l’accès ouvert en opérant une réaffectation des budgets qui y sont consacrés. Notre travail d’analyse sociologique constitue une première étude systématique de cet objet, fondée sur la recension de 197 accords. Le corpus ainsi constitué inclut des accords caractérisés par la coprésence d’une composante d’abonnement et d’une composante de publication en accès ouvert, même minimale (« jetons » de publication offerts, réduction sur les APC...). En conséquence, ont été exclus de l’analyse les accords portant uniquement sur du financement centralisé de publication en accès ouvert, que ce soit avec des éditeurs ne proposant que des revues avec paiement par l’auteur (PLOS, Frontiers, MDPI...) ou des éditeurs dont une partie du catalogue est constitué de revues en accès ouvert. L’accord le plus ancien de notre corpus a été signé en 2010, les plus récents en 2020 – les accords ne commençant qu’en 2021, même annoncés au cours de l’étude, n’ont pas été retenus. Plusieurs résultats se dégagent de notre analyse. Tout d’abord, on note une grande diversité des acteurs impliqués avec 22 pays et 39 éditeurs, même si certains consortiums (Pays-Bas, Suède, Autriche, Allemagne) et éditeurs (CUP, Elsevier, RSC, Springer) en ont signé beaucoup plus que d’autres. Ensuite, la durée des accords, comprise entre une et six années, révèle une distribution très inégalitaire, avec plus de la moitié des accords (103) signés pour 3 ans, ainsi qu’une faible proportion pour 4 ans ou plus (22 accords). Enfin, en dépit d’appels répétés à la transparence, moins de la moitié des accords (96) ont un texte accessible au moment de cette étude, sans qu’on puisse observer une tendance récente à une plus grande disponibilité. L’analyse montre également des degrés d’ouverture très variables, allant d’une simple information sur le répertoire ESAC en passant par la mise à disposition d’un format annotable jusqu’à l’attribution d’un DOI et d’une licence de réutilisation (CC-BY), en incluant le détail des sommes monétaires. Parmi les 96 accords disponibles, dont 47 signés en 2020, 62 ont fait l’objet d’une analyse en profondeur. C’est à notre connaissance la première analyse à cette échelle, sur un type de matériel non seulement inédit, mais qui était auparavant soumis à des clauses de confidentialité. Fondée sur une lecture minutieuse, l’étude décrit de manière fine leurs propriétés, depuis la matérialité du document jusqu’aux formules financières, en passant par leur morphologie et l’ensemble des droits et devoirs des parties. Les contenus des accords sont donc analysés comme une collection dont nous cherchons à déterminer les points communs et les variations, à travers des codages explicites sur certaines de leurs caractéristiques. L’étude pointe également des incertitudes, et notamment leur caractère « transitionnel », qui demeure fortement discuté. D’un point de vue morphologique, les accords montrent une grande diversité en matière de taille (de 7 à 488 pages) et de structure. Néanmoins, par définition, ils articulent tous deux objets essentiels : d’une part, les conditions de réalisation d’une lecture d’articles de revues, sous forme d’abonnement, mêlant des préoccupations d’accès et de sécurité ; d’autre part, les modalités de publication en accès ouvert, articulant la gestion d’un nouveau type de workflow à toute une série d’options possibles. Parmi ces options, mentionnons notamment le périmètre des revues considérées (hybrides et/ou accès ouvert), les licences disponibles, le degré d’obligation de cette publication, les auteurs éligibles ou le volume d’articles publiables. L’un des résultats les plus importants de cette analyse approfondie est la mise au jour d’un découplage presque complet, au sein même des accords, entre l’objet abonnement et l’objet publication. Bien entendu, l’abonnement est systématiquement configuré dans un monde fermé, soumis à paiement qui déclenche des séries d’identification des circulations légitimes tant du contenu informationnel que des usagers. Il insiste notamment sur les interdictions de réutilisation ou même de copie des articles scientifiques. À l’opposé, la publication en accès ouvert est attachée à un monde régi par l’accès gratuit au contenu, ce qui induit des préoccupations de gestion du workflow et des modalités d’accessibilité. De plus, les différents éléments constitutifs de ces objets contractuels ne sont pas couplés : d’un côté, les lecteurs sont constitués de l’ensemble des membres des institutions abonnées, de l’autre, seuls les auteurs correspondants (« corresponding authors ») sont concernés ; les listes de revues accessibles à la lecture et celles réservées à la publication en accès ouvert sont le plus souvent distinctes ; les workflows ont des objectifs et des organisations matérielles totalement différentes, etc. L’articulation entre les deux objets contractuels relève uniquement d’une formule de distribution financière qui, outre des combinaisons particulières entre l’un et l’autre, permet d’attribuer des étiquettes distinctes aux accords (offset agreement, publish & read, read & publish, read & free articles, read & discount). Au-delà de cette distribution, l’étude des arrangements financiers montre une gamme de dispositions allant d’une prévisibilité budgétaire totale, donc identique aux accords d’abonnement antérieurs, à une incertitude sur le volume de publication ou sur le montant définitif des sommes échangées. Les modalités concrètes de calcul des montants associés à la publication en accès ouvert sont relativement variées. S’il existe effectivement des formules récurrentes (volume d’articles multiplié par un prix individuel, reprise de la moyenne des sommes totales d’APC des années précédentes...), le calcul des sommes en jeu est toujours le résultat d’une négociation singulière entre un consortium et un éditeur scientifique, et aboutit parfois à des formules originales et complexes. À ce titre, l’espace des possibles en matière de formules financières n’est jamais totalement clos. Par ailleurs, la volonté des consortiums d’opérer une « transformation » de leurs accords vers la publication à coût constant renvoie à des définitions diversifiées du « coût » (inclusion ou non des dépenses d’APC préexistantes) et de la constance (admission ou pas d’une « inflation » à 2 ou 3%). De plus, nous n’avons observé aucune disposition contractuelle permettant d’anticiper les sommes en jeu au-delà de l’horizon temporel de l’accord courant. La grande diversité des accords provient d’une part des conditions initiales des relations entre consortiums et éditeurs scientifiques – les sommes dépensées en abonnement étant le point de départ des nouveaux accords –, d’autre part des objectifs de chaque partie. Même si cette étude excluait volontairement les négociations, les accords portent des traces de ces objectifs. Ainsi, de nombreux accords sont de nature explicitement expérimentale, quand certains visent un contrôle budgétaire strict, ou d’autres ambitionnent, dans la période plus récente, la publication du plus grand nombre possible d’articles en accès ouvert. C’est dans ce dernier cas qu’on touche à l’ambiguïté des attentes générales sur les accords transformants. En effet, pour les consortiums, la dimension « transformante » consiste essentiellement à transférer les sommes traditionnellement allouées à l’abonnement vers la publication en accès ouvert. Mais l’objectif n’est jamais de transformer le modèle économique des revues, c'est-à-dire de faire basculer des revues sous abonnement ou hybrides en revues entièrement en accès ouvert. D’ailleurs, aucune clause ne vise une telle fin – à l’exception du modèle d’accord proposé par l’éditeur ACM. Du côté des éditeurs, et notamment de Springer, le caractère cumulatif des accords nationaux passés vise à projeter un monde de la publication où l’accès ouvert devient de fait quantitativement très dominant, sans pour autant modifier de manière pérenne le modèle économique de leurs revues. Notre étude montre que les accords transformants actuels ne permettent pas d’assurer de manière durable une transition de l’économie de la publication vers l’accès ouvert, dans la mesure où ils n’offrent pas de garantie sur le contrôle des dépenses ni sur la pérennité de l’ouverture des contenus. L’avenir des relations entre consortium et éditeur demeure largement indéterminé.Cette étude porte sur une des innovations contemporaines liées à l’économie de la publication scientifique : les accords dits transformants, un objet relativement circonscrit au sein des relations entre consortiums de bibliothèques et éditeurs scientifiques, et temporellement situé entre 2015 et 2020. Ce type d’accords a pour objectif affiché d’organiser la transition du modèle traditionnel de l’abonnement à des revues (souvent proposées par regroupements thématiques ou collections) vers celui de l’accès ouvert en opérant une réaffectation des budgets qui y sont consacrés. Notre travail d’analyse sociologique constitue une première étude systématique de cet objet, fondée sur la recension de 197 accords. Le corpus ainsi constitué inclut des accords caractérisés par la coprésence d’une composante d’abonnement et d’une composante de publication en accès ouvert, même minimale (« jetons » de publication offerts, réduction sur les APC...). En conséquence, ont été exclus de l’analyse les accords portant uniquement sur du financement centralisé de publication en accès ouvert, que ce soit avec des éditeurs ne proposant que des revues avec paiement par l’auteur (PLOS, Frontiers, MDPI...) ou des éditeurs dont une partie du catalogue est constitué de revues en accès ouvert. L’accord le plus ancien de notre corpus a été signé en 2010, les plus récents en 2020 – les accords ne commençant qu’en 2021, même annoncés au cours de l’étude, n’ont pas été retenus. Plusieurs résultats se dégagent de notre analyse. Tout d’abord, on note une grande diversité des acteurs impliqués avec 22 pays et 39 éditeurs, même si certains consortiums (Pays-Bas, Suède, Autriche, Allemagne) et éditeurs (CUP, Elsevier, RSC, Springer) en ont signé beaucoup plus que d’autres. Ensuite, la durée des accords, comprise entre une et six années, révèle une distribution très inégalitaire, avec plus de la moitié des accords (103) signés pour 3 ans, ainsi qu’une faible proportion pour 4 ans ou plus (22 accords). Enfin, en dépit d’appels répétés à la transparence, moins de la moitié des accords (96) ont un texte accessible au moment de cette étude, sans qu’on puisse observer une tendance récente à une plus grande disponibilité. L’analyse montre également des degrés d’ouverture très variables, allant d’une simple information sur le répertoire ESAC en passant par la mise à disposition d’un format annotable jusqu’à l’attribution d’un DOI et d’une licence de réutilisation (CC-BY), en incluant le détail des sommes monétaires. Parmi les 96 accords disponibles, dont 47 signés en 2020, 62 ont fait l’objet d’une analyse en profondeur. C’est à notre connaissance la première analyse à cette échelle, sur un type de matériel non seulement inédit, mais qui était auparavant soumis à des clauses de confidentialité. Fondée sur une lecture minutieuse, l’étude décrit de manière fine leurs propriétés, depuis la matérialité du document jusqu’aux formules financières, en passant par leur morphologie et l’ensemble des droits et devoirs des parties. Les contenus des accords sont donc analysés comme une collection dont nous cherchons à déterminer les points communs et les variations, à travers des codages explicites sur certaines de leurs caractéristiques. L’étude pointe également des incertitudes, et notamment leur caractère « transitionnel », qui demeure fortement discuté. D’un point de vue morphologique, les accords montrent une grande diversité en matière de taille (de 7 à 488 pages) et de structure. Néanmoins, par définition, ils articulent tous deux objets essentiels : d’une part, les conditions de réalisation d’une lecture d’articles de revues, sous forme d’abonnement, mêlant des préoccupations d’accès et de sécurité ; d’autre part, les modalités de publication en accès ouvert, articulant la gestion d’un nouveau type de workflow à toute une série d’options possibles. Parmi ces options, mentionnons notamment le périmètre des revues considérées (hybrides et/ou accès ouvert), les licences disponibles, le degré d’obligation de cette publication, les auteurs éligibles ou le volume d’articles publiables. L’un des résultats les plus importants de cette analyse approfondie est la mise au jour d’un découplage presque complet, au sein même des accords, entre l’objet abonnement et l’objet publication. Bien entendu, l’abonnement est systématiquement configuré dans un monde fermé, soumis à paiement qui déclenche des séries d’identification des circulations légitimes tant du contenu informationnel que des usagers. Il insiste notamment sur les interdictions de réutilisation ou même de copie des articles scientifiques. À l’opposé, la publication en accès ouvert est attachée à un monde régi par l’accès gratuit au contenu, ce qui induit des préoccupations de gestion du workflow et des modalités d’accessibilité. De plus, les différents éléments constitutifs de ces objets contractuels ne sont pas couplés : d’un côté, les lecteurs sont constitués de l’ensemble des membres des institutions abonnées, de l’autre, seuls les auteurs correspondants (« corresponding authors ») sont concernés ; les listes de revues accessibles à la lecture et celles réservées à la publication en accès ouvert sont le plus souvent distinctes ; les workflows ont des objectifs et des organisations matérielles totalement différentes, etc. L’articulation entre les deux objets contractuels relève uniquement d’une formule de distribution financière qui, outre des combinaisons particulières entre l’un et l’autre, permet d’attribuer des étiquettes distinctes aux accords (offset agreement, publish & read, read & publish, read & free articles, read & discount). Au-delà de cette distribution, l’étude des arrangements financiers montre une gamme de dispositions allant d’une prévisibilité budgétaire totale, donc identique aux accords d’abonnement antérieurs, à une incertitude sur le volume de publication ou sur le montant définitif des sommes échangées. Les modalités concrètes de calcul des montants associés à la publication en accès ouvert sont relativement variées. S’il existe effectivement des formules récurrentes (volume d’articles multiplié par un prix individuel, reprise de la moyenne des sommes totales d’APC des années précédentes...), le calcul des sommes en jeu est toujours le résultat d’une négociation singulière entre un consortium et un éditeur scientifique, et aboutit parfois à des formules originales et complexes. À ce titre, l’espace des possibles en matière de formules financières n’est jamais totalement clos. Par ailleurs, la volonté des consortiums d’opérer une « transformation » de leurs accords vers la publication à coût constant renvoie à des définitions diversifiées du « coût » (inclusion ou non des dépenses d’APC préexistantes) et de la constance (admission ou pas d’une « inflation » à 2 ou 3%). De plus, nous n’avons observé aucune disposition contractuelle permettant d’anticiper les sommes en jeu au-delà de l’horizon temporel de l’accord courant. La grande diversité des accords provient d’une part des conditions initiales des relations entre consortiums et éditeurs scientifiques – les sommes dépensées en abonnement étant le point de départ des nouveaux accords –, d’autre part des objectifs de chaque partie. Même si cette étude excluait volontairement les négociations, les accords portent des traces de ces objectifs. Ainsi, de nombreux accords sont de nature explicitement expérimentale, quand certains visent un contrôle budgétaire strict, ou d’autres ambitionnent, dans la période plus récente, la publication du plus grand nombre possible d’articles en accès ouvert. C’est dans ce dernier cas qu’on touche à l’ambiguïté des attentes générales sur les accords transformants. En effet, pour les consortiums, la dimension « transformante » consiste essentiellement à transférer les sommes traditionnellement allouées à l’abonnement vers la publication en accès ouvert. Mais l’objectif n’est jamais de transformer le modèle économique des revues, c'est-à-dire de faire basculer des revues sous abonnement ou hybrides en revues entièrement en accès ouvert. D’ailleurs, aucune clause ne vise une telle fin – à l’exception du modèle d’accord proposé par l’éditeur ACM. Du côté des éditeurs, et notamment de Springer, le caractère cumulatif des accords nationaux passés vise à projeter un monde de la publication où l’accès ouvert devient de fait quantitativement très dominant, sans pour autant modifier de manière pérenne le modèle économique de leurs revues. Notre étude montre que les accords transformants actuels ne permettent pas d’assurer de manière durable une transition de l’économie de la publication vers l’accès ouvert, dans la mesure où ils n’offrent pas de garantie sur le contrôle des dépenses ni sur la pérennité de l’ouverture des contenus. L’avenir des relations entre consortium et éditeur demeure largement indéterminé.

Vai alla bibliografia