Letteratura scientifica selezionata sul tema "Signe faible"

Cita una fonte nei formati APA, MLA, Chicago, Harvard e in molti altri stili

Scegli il tipo di fonte:

Consulta la lista di attuali articoli, libri, tesi, atti di convegni e altre fonti scientifiche attinenti al tema "Signe faible".

Accanto a ogni fonte nell'elenco di riferimenti c'è un pulsante "Aggiungi alla bibliografia". Premilo e genereremo automaticamente la citazione bibliografica dell'opera scelta nello stile citazionale di cui hai bisogno: APA, MLA, Harvard, Chicago, Vancouver ecc.

Puoi anche scaricare il testo completo della pubblicazione scientifica nel formato .pdf e leggere online l'abstract (il sommario) dell'opera se è presente nei metadati.

Articoli di riviste sul tema "Signe faible":

1

Kaddour, Fériel. "Jouer Schubert : l’art du temps faible. Quelques remarques sur un point d’orgue dans la Sonate D960 pour piano". Les Cahiers de la Société québécoise de recherche en musique 10, n. 2 (28 novembre 2018): 27–35. http://dx.doi.org/10.7202/1054089ar.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Qu’est-ce qu’un point d’orgue ? Le présent article part de cette question apparemment anodine. Il analyse à cette occasion la structure ontologique de l’oeuvre musicale, constituée à la fois d’idéalité (son signe écrit : la partition) et de présence (le moment de sa réalisation instrumentale). Il s’appuie ensuite sur un exemple précis, le premier point d’orgue de la Sonate D960 de Schubert, et sur l’écoute comparée de trois interprétations enregistrées de cette sonate. Il met en perspective l’analyse du point d’orgue en regard de la forme sonate ici déployée par Schubert. Cet exercice lui permet d’étayer la thèse suivante : l’avènement de l’oeuvre repose sur la temporalisation de son inscription, la projection du signe écrit en son temporalisé; le signe (ce point d’orgue par excellence) est donc nécessairement un signe-pour-un-geste, et en appelle à la subjectivité d’un interprète pour achever la réalité qu’il n’a pu circonscrire entièrement dans son injonction.
2

BENOIT, M., e B. MÉDA. "Enjeux et atouts des productions animales sous signe officiel de qualité pour répondre aux attentes sociétales". INRA Productions Animales 30, n. 4 (27 giugno 2018): 381–94. http://dx.doi.org/10.20870/productions-animales.2017.30.4.2267.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
La demande des consommateurs évolue vers des produits pour lesquels des garanties (qualité, bien-être animal, respect de l’environnement) sont données via des cahiers des charges encadrant les pratiques. Cet article étudie les services rendus par deux productions sous signe officiel de qualité : les poulets Label Rouge et l’élevage ovin allaitant en agriculture biologique. Leurs cahiers des charges présentent des éléments de convergence (restriction d’utilisation de certains intrants, accès à des surfaces extérieures…) qui peuvent conduire à une productivité plus faible et pénaliser certains impacts environnementaux exprimés par kg de produit (GES, pour les poulets par exemple). Les bilans finaux peuvent cependant se révéler meilleurs qu’en conventionnel, par divers effets de compensation et s’ils sont exprimés par € de produit. Ces productions renvoient une image positive auprès du consommateur en termes de bien-être animal (faible densité animale, accès à un parcours), de qualité organoleptique des produits et de lien au « terroir » et au territoire. Se dessinent alors de nouveaux optimums entre niveaux de productivité et production de services. Des leviers sont proposés pour maximiser les services environnementaux, sociaux et culturels tout en augmentant le service « d’approvisionnement » ; à l’échelle de l’animal, les principaux enjeux concernent l’amélioration de l’efficacité alimentaire, l’adaptation aux milieux et la productivité numérique (ovins). La mobilisation des principes de l’agroécologie doit permettre, à l’échelle de l’exploitation, de tirer parti du couplage entre espèces ou ateliers de production (animal, végétal), et, à l’échelle du territoire, d’imaginer de nouvelles complémentarités entre exploitations.
3

Bah, A. "Aspects épidémio-cliniques de la drépanocytose chez l’enfant à l’hôpital Nianankoro Fomba de Ségou". Mali Santé Publique 11, n. 1 (4 agosto 2021): 101–6. http://dx.doi.org/10.53318/msp.v11i1.1901.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Introduction : L’objectif était d’étudier les aspects épidémio-cliniques de la drépanocytose chez l’enfant à l’hôpital Nianankoro Fomba (HNF) de Ségou. Methodologie : Il s’agissait d’une étude descriptive transversale allant du 02 janvier 2019 au 28 février 2020 au service de pédiatrie de l’HNF de Ségou. Elle a porté sur tous les cas documentés de drépanocytose chez les enfants de 1 mois à 15 ans, et ceux dont le statut a été confirmé dans le service durant la période d’étude. Les variables étudiées étaient : les caractéristiques sociodémographiques, cliniques, biologiques et thérapeutiques des malades. Les données ont été saisies et analysées sur le logiciel Epi info version 3.5.4. Résultats : Pendant l’étude 7617 patients ont consulté dans le service dont 105 cas de drépanocytose soit une fréquence hospitalière de 1,3%. L’âge moyen des enfants était de 53,64 mois±4ans. Le sex ratio était de 1,4 en faveur des garçons. La notion de consanguinité était retrouvée dans 51,43% des cas. La pâleur cutanéo- muqueuse était le signe physique le plus fréquent avec 83,81%; le phénotype SS de l’hémoglobine représentait 92,38%; la crise vaso- occlusive était la complication aiguë la plus fréquente avec 51,43%. Le taux de létalité était de 0,95%. Conclusion : La drépanocytose est fréquente dans le service de pédiatrie de l’HNF- Ségou avec 1,3%. La prise en charge est difficile du fait du faible niveau du plateau technique et du faible niveau socioéconomique des parents. Mots clés : Drépanocytose - Enfant - Ségou
4

Blancheton, Bertrand, e Jean-Charles Asselain. "Les équilibres vitaux : la dépendance alimentaire de l'Europe". Revue économique 51, n. 2 (1 marzo 2000): 195–212. http://dx.doi.org/10.3917/reco.p2000.51n2.0195.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Résumé L'Europe occidentale d'avant-guerre est largement dépendante des importations pour son alimentation de base. C'est à la fois le signe d'une domination mondiale, qui lui a permis d'orienter le développement des réseaux de production et d'échanges agricoles selon ses propres besoins, mais aussi -à la veille de la guerre - un facteur de vulnérabilité, qui conditionne les choix stratégiques des belligérants et qui affectera directement le sort des populations durant le conflit. Le continent, cependant, est loin d'être homogène : à l'Europe industrielle des pays riches s'oppose l'Europe agricole des pays pauvres, où le fort taux d'actifs agricoles s'accompagne en général d'un retard technique et d'un faible niveau de productivité, aussi bien en Europe de l'Est, exportatrice de céréales, qu'en Europe du Sud, tributaire des importations comme l'Europe occidentale. Mais la « troisième révolution agricole », dont la dernière guerre marque le point de départ en Europe, a permis des gains de productivité sans précédent, une inversion du solde céréalier pour de nombreux pays longtemps déficitaires et l'amorce d'un alignement par le haut dans une grande partie de l'Europe. Dans un monde où industrialisation et développement agricole sont toujours plus solidaires, l'Europe de l'Est a vu son retard relatif s'accentuer durant la période communiste : d'où l'incertitude sur sa place dans l'Europe agricole de demain.
5

Kamaye, Moumouni, e Et Al. "Aspects diagnostique, thérapeutique et pronostique des infections néonatales bactériennes précoces à la maternité Issaka Gazobi de Niamey". Revue Malienne d'Infectiologie et de Microbiologie 16, n. 3 (12 gennaio 2022): 93–96. http://dx.doi.org/10.53597/remim.v16i3.2038.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Introduction : L’infection néonatale bactérienne précoce (INBP) demeure une des principales causes évitables de mortalité néonatale à travers le monde. C’est une urgence médicale et constitue un problème de santé publique. L’objectif de ce travail était d’étudier les aspects diagnostique, thérapeutique et pronostique des INBP. Patients et méthodes : Il s’agissait d’une étude prospective descriptive et analytique qui s’était déroulée à la maternité Issaka Gazobi de Niamey du 1er Avril 2015 au 31 Mai 2016 et ayant inclus tous les nouveau-nés âgés de 0 à 3 jours suspects d’INBP selon les critères de l’ANAES 2002. Les données ont été analysées à l’aide du logiciel Epi-info 3.5.1. Le test de Chi² de Pearson et le test exact de Fisher ont été utilisés avec un seuil de significativité de 5%. Résultats : Trois cent cinquante-six (356) nouveau-nés suspects d’INBP étaient inclus. Le sex ratio était de 1,67. Les nouveau-nés de moins de 24h de vie représentaient 42 %. L’anomalie du liquide amniotique était le risque infectieux prédominant dans 83,1 %. Les morbidités retrouvées étaient, le faible poids de naissance dans 44 % des cas et l’asphyxie néonatale dans 52,2 % des cas. Environ 54 % des mères avaient un âge compris entre 18 et 28 ans et la majorité d’entre elles n’étaient pas instruites (66,8 %). La fièvre était le signe clinique le plus rencontré (38,4 %). La CRP était positive dans 16,9 % des cas et l’hémoculture l’était dans 23,31% des cas. Les principaux germes étaient Klebsiella pneumoniae (32,5%), Staphylococcus aureus (21,7%) et Staphylocoque coagulase négative (21,7%). Aucun lien statistique n’a été retrouvé entre les manifestations cliniques et les germes isolés. Une létalité de 15,5% a été notifiée. Les facteurs de risque de décès étaient le faible poids de naissance, l’asphyxie et l’infection par Klebsiella Pneumoniae. Conclusion : Les INBP restent encore un problème de santé publique dans nos régions de part leur létalité. Il est nécessaire de renforcer les mesures préventives dont entre autres le dépistage et traitement adéquat des infections maternelles en cours des consultations prénatales de qualité.
6

Fitoussi, Jean-Paul. "Anatomie de la croissance molle". Revue de l'OFCE 59, n. 4 (1 novembre 1996): 213–44. http://dx.doi.org/10.3917/reof.p1996.59n1.0213.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Résumé Depuis le début des années quatre-vingt-dix, la croissance fut particulièrement faible en Europe, 1,3% en moyenne (1, 1 % pour la France). C'est la plus mauvaise performance, pour une période de cinq ans, depuis la seconde guerre mondiale. Cet article est consacré à une analyse des mécanismes qui produisent une croissance molle en nos pays et à la question de leur pérennité. Le processus de la croissance faible est engendré par une modification des rapports de forces entre acteurs sur les marchés, dont le premier signe fut une élévation brutale et durable des taux d'intérêt réels longs. Domination des « créanciers » sur les marchés financiers et domination des entrepreneurs sur le marché du travail sont les caractéristiques du temps présent. Elles sont la conséquence à la fois de la globalisation financière et de politiques monétaires qui furent, jusqu'à une période récente, trop restrictives. L 'emploi et l'investissement apparaissent comme les principales variables d'ajustement pour des entreprises contraintes de se désendetter. Alors que l'atonie de l'investissement et l'aggravation du chômage conduisent aux déficits publics et sociaux et à l'endettement des Etats. La tutelle des marchés financiers sur la politiques économique n'en devient que plus lourde. Mais ce déséquilibre des rapports de force n'a rien d'irréversible et il n'implique ni résignation, ni renoncement à notre système de protection sociale. Il est en effet possible de concevoir des politiques susceptibles de rétablir l'équilibre des forces, qui seul est compatible avec la démocratie de marché, système dont l'article cherche à dessiner les contours. Comme les trente glorieuses que nous avons connu, les « vingt médiocres » qui viennent de s'écouler peuvent n'être que la conséquence de facteurs spécifiques, historiquement datés et qu'il serait erroné de projeter dans le futur. Il se pourrait ainsi que l'avenir de la croissance soit beaucoup plus dégagé qu'on ne le croit et qu'on ne le dit. A condition que l'on en comprenne les ressorts profonds, et que l'on cesse d'opposer l'économique et le social : leur intersection forme, au contraire, le lieu privilégié de la démocratie.
7

Randriamparany, Tantely, Tommaso Petregnani, René Rabenarivahiny, Peter Fenozara e Antonio Barbario. "Dépistage de la tuberculose bovine chez les vaches laitières dans le district d’Antanifotsy, Madagascar". Revue d’élevage et de médecine vétérinaire des pays tropicaux 67, n. 3 (30 giugno 2015): 126. http://dx.doi.org/10.19182/remvt.10183.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Avec cinq litres par habitant et par an, la consommation de produits laitiers à Madagascar reste faible. Toutefois, diverses campagnes de communication sont actuellement menées pour inciter la population à consommer davantage de produits laitiers et pour motiver les producteurs à améliorer la qualité du lait et les quantités produites (3). La majeure partie de la production nationale (90 p. 100) provient de la zone du triangle laitier situé sur les hauts plateaux de Madagascar dans les régions d’Antsi­rabe, d’Antananarivo et de Tsiroanomandidy.Toutefois, l’état sanitaire du cheptel laitier reste peu documenté et les maladies zoonotiques telles que la tuberculose demeurent négligées. La tuberculose bovine est une maladie animale chro­nique due à la bactérie Mycobacterium bovis. Elle peut être contractée par l’homme par voie aérienne ou par la consomma­tion de lait cru provenant de vaches infectées (1).En l’absence de données sanitaires récentes sur le niveau d’in­fection des cheptels laitiers par M. bovis et afin d’élaborer des stratégies de contrôle, une étude épidémiologique a été réalisée dans 15 communes (Fokontany) du district d’Antanifotsy dans la région du Vakinankaratra.Un dépistage a été effectué sur 429 vaches laitières par intra­dermo-tuberculination selon la méthode recommandée par l’Organisation mondiale de la santé animale (2) pour la détec­tion de la tuberculose bovine. Une dose de 0,1 ml (2 000 UI) de tuberculine bovine a été injectée par voie intradermique au niveau du cou de la vache. Lorsque la réaction est positive, un épaississement du pli de la peau est observé après 48 heures. La réaction est considérée comme négative quand le gonflement de la peau mesure moins de 2 mm avec un cutimètre. Elle est douteuse si aucun signe clinique n’est observé et si l’augmenta­tion de l’épaississement du pli de la peau mesure plus de 2 mm et moins de 4 mm. En revanche, Elle est positive si des signes cliniques sont observés ou s’il y a une augmentation de 4 mm ou plus de l’épaisseur du pli de la peau.Le diagnostic a été douteux pour seulement quatre vaches (0,9 p. 100) après la deuxième lecture (tableau I). Les 425 autres tests ont été négatifs.Alors qu’une très petite quantité du lait produit dans le district d’Antanifotsy est transformée localement, la grande majorité est collectée, souvent mélangée avec des laits d’origine inconnue, et acheminée vers la capitale. Sans traçabilité ni contrôle sanitaire le long de la chaîne de commercialisation, les laits crus vendus sur les marchés finaux présentent un risque de contamination pour les consommateurs et, même si nos résultats indiquent une faible prévalence de la tuberculose dans la population bovine laitière d’Antanifotsy, la pasteurisation du lait produit à Madagascar reste donc nécessaire.
8

Vaz, Cícero Emidio. "Anxiety, Productivity, Performance, and Culture in the Rorschachs of a Multiethnic Group of Adolescents". Rorschachiana 20, n. 1 (gennaio 1995): 93–111. http://dx.doi.org/10.1027/1192-5604.20.1.93.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
L’article que nous présentons rapporte une recherche qui a pris en compte les aspects ethnique, culturel et de personnalité dans la productivité et la performance liées aux niveaux d’anxiété et de contrôle rationnel chez des adolescents de différentes origines ethniques dans le sud du Brésil. Cette recherche s’enracine dans un projet que nous menons depuis 1988 portant sur l’étude des capacités de productivité. Nous cherchions alors à déterminer si le niveau d’anxiété situationnelle était différent chez les indiens Tükuna et chez les blancs non-Tükuna d’origine portugaise vivant dans l’état d’Amazonie du Nord du Brésil. Nous avons pu montrer que les indiens Tükuna et les sujets non-Tükuna sont similaires quant à leurs besoins de réussite et de production et à leur haut niveau de besoin d’affiliation (recherche de protection). Dans l’étude présente, le Rorschach dans la perspective de Klopfer fut proposé à 107 adolescents des deux sexes d’origine portugaise, afro-brésilienne, allemande, israélite et italienne à Rio Grande do Sul, dans le sud du Brésil. Aucun des sujets ne présentait de problèmes de comportement ou scolaire. Leurs protocoles furent comparés à l’aide du Wilcoxon pour k échantillons indépendants et un MANOVA avec un seuil de significativité de .05. L’étude a porté sur les réponses Dbl (S) comme signe d’anxiété situationnelle et le nombre total de réponses (R) comme indice de capacité de performance et de productivité, ainsi que sur la corrélation entre S, R et F (réponses formelles). La moyenne de R est considérée comme normale entre 15 et 22. Les adolescents afro-brésiliens ont présenté moins d’anxiété, de productivité, de performance et de productivité culturelle(R) que les autres groupes, corrélé avec une absence d’anxiété (S), ce que l’on peut interpréter comme une tendance à l’accommodation. Les adolescents afro-brésiliens ressemblent aux adolescents Tükuna testés dans l’intérieur de l’Amazonie dans leur faible capacité de productivité et de performance. Contrairement à ce qu’on avait trouvé chez les adolescents d’origine portugaise testés par l’auteur dans l’intérieur de l’Amazonie, les adolescents portugais du sud du Brésil ne présentaient pas de faible capacité de productivité. On a trouvé une corrélation positive entre l’anxiété situationnelle et le souci de la performance et de la productivité chez les adolescents d’origine allemande, israélite, italienne et portugaise. En d’autres termes, ces groupes ethniques présentaient une anxiété directement corrélée à leurs soucis de performance et de productivité. Les adolescents d’origine afro-brésilienne, au contraire, ne présentaient pas de signes d’anxiété et de souci lié à la performance et à la productivité. On discute de l’hypothèse selon laquelle ce résultat serait lié à une accommodation et une dépendance qui s’origineraient dans une acceptation, non combattue, de l’acculturation de la dépendance issue de la période d’esclavage du Brésil.
9

Elouard, J. M., L. Yameogo e M. Simier. "Homologie d'évolution de peuplements benthiques soumis aux épandages d'insecticides antisimulidiens". Revue des sciences de l'eau 4, n. 4 (12 aprile 2005): 453–62. http://dx.doi.org/10.7202/705110ar.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
L'utilisation hebdomadaire d'insecticides pour lutter contre les Simulies modifie l`abondance des populations benthiques. Les variations ne sont ni de la même ampleur ni du même signe, selon l'insecticide (Abate, chlorphoxime, B.t.) et les taxons. Parmi les dizaines de rivières savanicoles traitées aux insecticides antisimulidiens, seules quelques unes font l'objet d'une surveillance de la faune non-cible. La problématique de ce travail est de savoir s'il est possible de généraliser à l'ensemble des rivières, les fluctuations d'abondance des populations observées sur une station de référence. Sur la station de référence, l'évolution de l'abondance des populations pour les trois insecticides étudiés est mesurée à l'aide du rapport : R/P = log APTi/log AVT, où log APTi est le logarithme de l'effectif moyen pour la période de traitement à l'insecticide i et où log AVT est le logarithme de l'effectif moyen avant traitement. Pour chaque taxon ainsi que pour la faune totale on obtient donc un rapport Abate, un rapport chlorphoxime et un rapport B.t. Les valeurs de ces rapports obtenus pour la station d'Entomokro, sont ensuite appliquées aux effectifs récoltés avant traitement sur trois autres stations. Les valeurs calculées sont comparées aux valeurs observées dans le cadre de la surveillance des rivières. Pour la faune totale, l'écart entre les valeurs calculées et les valeurs observées est très faible, r = 0,98. L'étude par taxon montre que la prédiction de ce modèle est excellente pour les Caenidae et les Hydropsychidae, bonne pour les Baetidae, les Chironomini, les Tricorythidae et les Orthocladiinae, médiocre pour les Tanypodinae et les Tanytarsini.
10

Gilmar Mendoza-OrdoÑez, M., R. Oscar Rebaza, P. C. Rufino Paucar-Chanca, V. Nicasio Valencia e D. Olusegun D. Oshibanjo. "Vital signs of Cavia porcellus (Guinea pig) diagnosed with malignant hyperthermia using sevoflurane gas". Nigerian Journal of Animal Production 48, n. 5 (10 novembre 2021): 69–76. http://dx.doi.org/10.51791/njap.v48i5.3222.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Malignant hyperthermia (MH) is a life-threatening clinical syndrome of hypermetabolism involving the skeletal muscle. It is triggered in susceptible individuals primarily by volatile inhalational anesthetic agents and the muscle relaxant succinylcholine. MH affects humans, certain pig breeds, dogs, horses, and probably other animals. The classic signs of MH include A dramatic rise in body temperature, rigid or painful muscles, especially in the jaw, flushed skin, sweating, an abnormally rapid or irregular heartbeat, rapid breathing or uncomfortable breathing, brown or cola-colored urine, very low blood pressure (shock), confusion and muscle weakness or swelling after the event. The syndrome is likely to be fatal if untreated. This study therefore assessed the effects of sevoflurane gas on the vital signs of Cavia porcellus with malignant hyperthermia. For the determination of malignant hyperthermia, 50, 15 day-old weaned kits of Peru breed were placed in an anesthesia chamber for 5 minutes and subjected to a mixture of air with 3% sevoflurane gas. Only 6% of them reacted positively, while most of them, 94%, were negative. The average body temperature of the positive kits was 38.9ºC, oscillating between 38.7 and 39.1 ° C, while the negative ones averaged 37.9 ° C. The positive kits had an average of 142.3 breaths per minute compared to the negative ones, which was determined to be 83.7. The number of heart beats per minute in the kits with a positive reaction to sevoflurane averaged 205 and the negative ones 119.5. Muscle tremors were observed throughout the body during exposure of the positive kits to sevoflurane gas. It is concluded that for every 16 guinea pigs, 1 will react to the sevoflurane gas exposure positive due to the result obtained from the vital sign. Only the positive ones presented muscle tremors. L'hyperthermie maligne (HM) est un syndrome clinique d'hypermétabolisme mettant en jeu le pronostic vital impliquant le muscle squelettique. Elle est déclenchée chez les individus sensibles principalement par des agents anesthésiques volatils par inhalation et le relaxant musculaire succinylcholine. MH affecte les humains, certaines races de porcs, les chiens, les chevaux et probablement d'autres animaux. Les signes classiques de MH comprennent une augmentation spectaculaire de la température corporelle, des muscles rigides ou douloureux, en particulier dans la mâchoire, une peau rougeoyante, une transpiration, un rythme cardiaque anormalement rapide ou irrégulier, une respiration rapide ou une respiration inconfortable, une urine brune ou de couleur cola, très faible tension artérielle (choc), confusion et faiblesse ou gonflement musculaire après l'événement. Le syndrome estsusceptible d'être fatal s'il n'est pas traité. Cette étude a donc évalué les effets du gaz sévoflurane sur les signes vitaux de Cavia porcellus avec hyperthermie maligne. Pour la détermination de l'hyperthermie maligne, 50 chatons sevrés de 15 jours de race Pérou ont été placés dans une chambre d'anesthésie pendant 5 minutes et soumis à un mélange d'air avec 3% de sévoflurane. Seuls 6 % d'entre eux ont réagi positivement, alors que la plupart d'entre eux, 94 %, ont été négatifs. La température corporelle moyenne des kits positifs était de 38,9 ° C, oscillant entre 38,7 et 39,1 ° C, tandis que les kits négatifs étaient en moyenne de 37,9 ° C. Les kits positifs avaient une moyenne de 142,3 respirations par minute par rapport aux négatifs, ce qui a été déterminé à être 83,7. Le nombre de battements cardiaques par minute dans les kits avec une réaction positive au sévoflurane était en moyenne de 205 et ceux négatifs de 119,5. Des tremblements musculaires ont été observés dans tout le corps pendant l'exposition des kits positifs au sévoflurane. Il est conclu que pour 16 cobayes, 1 réagira positivement à l'exposition au gaz sévoflurane en raison du résultat obtenu à partir du signe vital. Seuls les positifs présentaient des tremblements musculaires.

Tesi sul tema "Signe faible":

1

Reunkrilerk, Dorian. "La force du signal faible : rôle des médias pour l’intégration du design au sein des organisations : une contribution sémio-pragmatique de la médiation au design". Electronic Thesis or Diss., Institut polytechnique de Paris, 2022. http://www.theses.fr/2022IPPAT014.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Le développement des organisations se réalise aujourd'hui par un recours intensif au projet innovant et aux méthodes réplicables du design thinking dont une partie de la littérature pointe le caractère non situé. Cette thèse vise à comprendre les conditions favorisant une intégration située du design dans les organisations. A la croisée des sciences du Design et les sciences de l'Information et de la Communication, il apparaît que le concept de médiation permet de considérer les « médias » comme la possibilité matérielle, sensible, et symbolique d'ouvrir à des transformations. Cette recherche a été réalisée au sein d'un centre R&D de l'industrie de la métallurgie. Au terme de cette immersion, nous proposons une approche basée sur la notion de « signe faible », consistant à identifier ce qui, au sein d'une organisation fondée sur la conception réglée, peut donner lieu à des pratiques de design. Il ne s'agit alors pas d'opposer les pratiques mais de comprendre comment elles peuvent se compléter. Afin de détailler cette notion, nous présentons les trois étapes dans le traitement d'un signe faible : l'identification, l'augmentation et l'appropriation. Cette approche de la médiation affirme que le potentiel de transformation d'une organisation réside déjà au sein de son infrastructure et qu'il correspond à des signes faibles d'une pratique de design. Elle enrichit l'approche centrée « média » du design en définissant cette activité à partir des médias et des médiations qui la constituent. Enfin, elle permet d'ouvrir une réflexion sur le rôle de la médiation dans l'acte de design favorisant un rapport inventif au système de classifications d'un praticien
The development of organizations is fulfilled by an intensive use of innovative projects and replicable methods of design thinking, of which part of the literature points out the non-situated approach. This thesis aims at understanding the conditions leading to a situated integration of design in organizations. At the crossroads of Design sciences and Information and Communication sciences, it appears that the concept of mediation can help us to consider "media" as the material, sensitive and symbolic possibility of opening up to transformations. This research was conducted within an R&D center in the metallurgy industry. At the end of this immersion, we are proposing an approach based on the notion of "weak sign", consisting in identifying what, within an organization based on systematic design, can give rise to design practices. Therefore, it is not about opposing these practices but rather to understand how they can complement each other. In order to develop this notion, we will present the three stages to process a weak sign: identifying, enhancing and assimilating. This approach affirms that potential for transformation already resides within an organization's infrastructure and corresponds to weak signs in design practices. It enriches the “media” centered approach to design by helping to define this activity as based on media and mediations. Finally, it makes it possible to initiate a reflection on the role of mediation in the act of design supporting an inventive relation to the system of classifications of a practitioner
2

Legrand, Olivier. "Description hamiltonienne d'un soliton de type Sine-Gordon soumis à un faible champ extérieur". Aix-Marseille 2, 1987. http://www.theses.fr/1987AIX22002.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Une etude de la dynamique du kink de sinus-gordon est envisagee en presence d'un faible champ exterieur. On developpe une equivalence soliton-particule qui permet l'utilisation d'une methode aux coordonnees collectives. Cette methode permet de reduire le nombre infini de degres de liberte de l'equation aux derivees partielles non lineaires a quelques degres de liberte dont la dynamique est decrite par un systeme d'equations differentielles ordinaires non lineaires couplees. On aborde le probleme de l'interaction kink-antikink par cette methode avec succes
3

Legrand, Olivier. "Description hamiltonienne d'un soliton de type Sine-Gordon soumis à un faible champ extérieur". Grenoble 2 : ANRT, 1987. http://catalogue.bnf.fr/ark:/12148/cb376072040.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
4

Busquère, Jean-Pierre. "Développement et intégration de MEMS RF dans les architectures d'amplificateur faible bruit reconfigurables". Toulouse, INSA, 2005. http://www.theses.fr/2005ISAT0042.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
De nos jours, les modules hyperfréquences doivent de plus en plus présenter non seulement des performances électriques sans cesse améliorées mais aussi des fonctionnalités nouvelles ainsi que de fortes compacités, et des coûts de fabrication les plus réduits possibles. Les perspectives attractives apportées par l'utilisation des technologies SiGe permettent aujourd'hui d'envisager la réalisation de circuits intégrés jusqu'aux fréquences millimétriques tandis que, dans le même temps, le développement rapide des technologies MEMS RF permet de réaliser de nouvelles fonctionnalités au niveau des circuits radiofréquences. Dans la première partie de ce mémoire, nous proposons un concept d'amplificateur faible bruit reconfigurable en fréquence et basé sur l'association des technologies SiGe et MEMS RF. Conception et performances simulées des amplificateurs élaborés à la fois pour une intégration monolithique et une autre par fil de soudure sont alors présentées. La deuxième partie est entièrement consacrée à la conception et la réalisation des MEMS RF suivant les spécifications que nous avons établi lors de la première partie. Conception, réalisation et caractérisation des structures MEMS RF sont présentés, pour aboutir à l'obtention de performances situées à l'état de l'art pour des capacités autant séries que parallèles. La dernière partie, traite de l'assemblage entre les deux technologies MEMS et SiGe, avec trois études réalisées sur une intégration monolithique dite " Above IC ", un assemblage par fils de soudure et un assemblage Flip Chip. Au final, des modules de test assemblés sont présentés et caractérisés
Nowadays, high frequencies modules must present electric performances unceasingly improved but also, new functionalities as well as strong compactness, and manufacturing costs, which are more and more reduced. SiGe technologies enables to plan the realization of integrated circuits until the millimetre-length frequencies while, in the same time, the fast development of RF MEMS technologies makes possible to design new functionalities. Within the framework of this memory, we will present the development of a reconfigurable in frequency Low Noise Amplifier at HIPERLAN (5. 5 GHz) and BLUETOOTH (2. 45 GHz) frequencies, thanks to the specific association of the SiGe technologies developed by STMicroelectronics and RF MEMS elaborated at LAAS-CNRS. In the first part of this memory, we propose the concept of a reconfigurable in frequency Low Noise Amplifier, which is assembled in post-processing with RF MEMS varactors on the integrated SiGe circuit. Design and simulated performances of amplifiers integrated monolithically or through wire bonding are presented. The second part is entirely devoted to the design and the realization of RF MEMS, according to the different specifications defined previously. Electromagnetic and mechanical considerations and optimised process are presented. The RF MEMS characterization led to performances located at the state of the art for varactors. The last part is dedicated to the assembly of both MEMS and SiGe technologies. Monolithic (currently called Above IC), flip chip and wire bonding integrations have been studied. Finally the assembled test modules are presented and characterized
5

Villalon, Anthony. "Etude de nano-transistors à faible pente sous le seuil pour des applications très basse consommation". Thesis, Grenoble, 2014. http://www.theses.fr/2014GRENT101/document.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Le transistor à effet tunnel bande à bande (TFET) est une architecture PIN à grille capable d’obtenir une pente sous le seuil inférieure à 60mV/dec à température ambiante, ce qui représente un avantage par rapport au MOSFET dans le cas d’applications basse consommation. L’objectif de cette thèse est d’étudier et de caractériser des TFETs fabriqués au CEA-LETI (sur substrats SOI avec les procédés standards CMOS), afin de comprendre et d’optimiser ces dispositifs. La première génération de TFETs a été réalisée en architecture planaire (FDSOI) et fournit une étude sur l’impact de l’hétérojonction canal source, de l’épaisseur du canal et de la température de recuit sur les performances. La seconde génération a été réalisée en architecture nanofil SiGe planaire, dont l’impact de la géométrie a été étudié en détail. Les mesures ont permis de valider l’injection par effet tunnel bande à bande, et les performances observées ont été comparées à la littérature et aux MOSFET. Par ailleurs, des caractérisations avancées ont également mené à une meilleure compréhension des caractéristiques de sortie courant-tension. Finalement, des mesures basse température nous avons confirmé la présence de défauts proches des jonctions (à l’origine des limitations de pente sous le seuil) et ainsi proposé des voies d’optimisation pour s’en affranchir
Band to band tunneling field effect transistor (TFET) is a PIN-gated architecture able to reach sub 60mV/dec subthreshold slopes at room temperature, which is an advantage over MOSFET in low power applications. The objective of this thesis is to study and characterize TFETs fabricated in CEA-LETI using MOSFET SOI technology. The first generation of devices is realized on planar FDSOI technology, and studies the impact of source/channel heterojunction, channel thickness and annealing temperature on device performances. The second generation is planar SiGe nanowire architecture, with research focusing on the impact of the wire geometry. Through measurements we were able to prove the band to band tunneling injection, while the reported performances were compared with literature and with MOSFET. Furthermore, advanced characterizations led to a better understanding of the output characteristics. Through low temperature measurements we confirmed existence of defects close to the junctions (which cause slope degradation), as well as on which process steps to improve in the future
6

Coudin, Élise. "Inférence exacte et non paramétrique dans les modèles de régression et les modèles structurels en présence d'hétéroscédasticité de forme arbitraire". Thèse, Paris, EHESS, 2007. http://hdl.handle.net/1866/1506.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
7

Lee, Jae Woo. "Caractérisation électrique et modélisation des transistors à effet de champ de faible dimensionnalité". Phd thesis, Université de Grenoble, 2011. http://tel.archives-ouvertes.fr/tel-00666486.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):

  • Introduction

  • La réduction des dimensions des composants microélectroniques a été le principal moteur pour l'amélioration des performances, en particulier l'augmentation de la vitesse de commutation et la réduction de la consommation. Actuellement les technologies dites 32 nm sont utilisées dans la production de masse. D'après la loi de Moore, des longueurs de grille de quelques nanomètres, qui représentent une limitation physique pour les transistors MOS, devraient être utilisées dans quelques années. Cependant la simple réduction des dimensions est actuellement en train d'atteindre ses limites car elle soulève divers problèmes.
    - La fabrication devient plus difficile. Par exemple, les circuits deviennent plus denses et plus complexes. Des difficultés apparaissent pour la lithographie, les interconnexions et les procédés de fabrication.
    - Dans les transistors à canal long, les équipotentielles sont parallèles à la grille de sorte que le canal est confiné de façon efficace à l'interface. Quand la longueur de grille décroît, la distribution du potentiel est modifiée. Les équipotentielles se déforment en direction du substrat de sorte que le canal n'est plus contrôlé uniquement par la grille. Ce phénomène est à l'origine des effets de canal courts qui se traduisent par le décalage de la tension de seuil, une réduction de la barrière de potentiel source-canal sous l'effet de la tension de drain (DIBL), un percement éventuel, des effets de transport non stationnaire ou de saturation de la vitesse, des effets de porteurs chuads, etc. De ce fait, un changement de perspective est nécessaire pour poursuivre l'augmentation de la densité d'intégration et l'amélioration des performances anticipées par la loi de Moore. De nouveaux concepts sont nécessaires. Ils peuvent être classés de la façon suivante: empilement de grille, substrats silicium sur isolant (SOI), et ingénierie du canal. Sous cette dernière dénomination, nous incluons l'architecture du canal, le choix du matériau et l'ingénierie de la contrainte mécanique.
    - L'épaisseur de l'oxyde de grille doit décroître pour maintenir un champ électrique suffisant à l'interface. En 2009, la feuille de route ITRS prévoyait à terme une épaisseur effective d'oxyde inférieure à 1 nm. A cette épaisseur, l'oxyde de silicium SiO2 n'assure plus une isolation suffisante et une fuite de grille apparaît par couplage quantique entre la grille et le canal. SiO2 doit donc être remplacé par un diélectrique à plus haute permittivité (diélectrique dit high-k). Par exemple, avec une épaisseur physique de 5nm, un diélectrique dont la permittivité relative vaut 20 peut remplacer 1 nm de SiO2. L'augmentation de l'épaisseur de diélectrique permet alors d'éviter les fuites par effet tunnel à travers la grille. Cependant, ces diélectriques peuvent sont fréquemment sujets à un piégeage du niveau de Fermi à l'interface avec le métal de grille. Intrinsèquement, ils génèrent également des phonons optiques de faible énergie qui peuvent interagir avec les électrons du canal. Avec une grille métallique la forte concentration d'électrons peut cependant écranter ces vibrations dipolaires. Enfin, les tensions de seuil du PMOS et du NMOS dépendent directement des travaux de sortie des matériaux utilisés pour la grille et le choix de l'empilement high-k/métal doit donc être fait en intégrant cette contrainte.
    - Les substrats SOI sont constitués d'un film de silicium (body), séparé du substrat proprement dit par une couche enterrée de silice (BOX). Les composants sont isolés verticalement ce qui assure un premier niveau de protection contre certains effets parasites qui peuvent apparaître dans les substrats massifs, tels que courant de fuite par le substrat, photo-courant ou déclenchement parasite (latch-up) sous irradiation. L'utilisation d'un substrat SOI permet également de réduire la profondeur des jonctions, le courant de fuite et la capacité de jonction. Selon leur épaisseur, les substrats SOI sont de deux types: partiellement désertés (PD-SOI) ou totalement désertés (FD-SOI).
    Les substrats PD-SOI utilisent un film silicium relativement épais (tSi > 45 nm). La charge de déplétion sous le canal ne s'étend pas jusqu'au BOX de sorte qu'une partie du film reste neutre et peut collecter les porteurs majoritaires. Si un contact supplémentaire n'est pas introduit pour les évacuer, ce type de substrat est sujet aux effets de body flottant. En effet, lorsqu'un mécanisme tel que l'ionisation par impact génère des porteurs majoritaires, ces derniers sont susceptibles de s'accumuler dans la zone neutre du body et d'induire une polarisation parasite de la jonction source qui provoque l'injection d'un courant en excès, une variation transitoire de la tension de seuil et du potentiel de body. Les substrats FD-SOI on tune épaisseur de silicium plus faible, typiquement inférieure à 20 nm. De ce fait, le film est entièrement déserté et la charge de déplétion est constante. L'excellent couplage entre la grille et le canal améliore els performances en termes de courant de drain, de pente sous le seuil et de temps de réponse à une variation de commande de grille. L'utilisation du substrat comme grille arrière est également plus efficace que pour les substrats PD-SOI. Cette propriété peut par exemple être utilisée pour contrôler électriquement la tension de seuil. Les effets de body flottant sont fortement réduits. La faible épaisseur du body et son isolation thermique par le BOX peuvent toutefois conduire à un auto-échauffement du composant et à un couplage éventuel entre les défauts des deux interfaces. Malgré ces quelques inconvénients, la technologie SOI apporte toutefois un net bénéfice en termes de performances.
    - L'immunité aux effets de canal court peut être encore améliorée par rapport à celle des composants planaires grâce à l'utilisation de structures à grilles multiples qui renforcent le contrôle électrostatique du canal. Intel a annoncé récemment que sa prochaine génération de microprocesseurs, dénommée Ivy Bridge, utilisera une technologie 22 nm en remplacement de la technologie 32 nm de Sandy Bridge. Ivy Bridge utilisera des transistors de type Tri-gate FinFET pour éviter les effets de canal court. Cette architecture rend possible la réduction des dimensions du transistor, et en conséquence une réduction de la consommation et une augmentation de la fréquence d'horloge. Intel prévoit que cette technologie FinFET 22 nm sera 37% plus rapide et économisera 50% de la puissance active par rapport à la technologie 32 nm actuelle. Au-delà, les architectures à grille complètement enrobante (GAA, pour Gate-All-Around) constituent l'architecture optimale en termes de contrôle électrostatique du canal. Ce sont des architectures 3D dans lesquelles la grille entoure complètement le canal. Pour les sections les plus faibles, le canal tend vers une structure de nanofil pseudo-1D. On parle alors de NW-FET (Nanowire FET).

  • Le transistor FinFET - Influence de la rugosité de surface

  • Pour résumer ce qui vient d'être dit, la première amélioration qui peut être apportée pour repousser l'apparition des effets de canal court, et permettre ainsi une réduction des dimensions, consiste à réduire l'épaisseur du body en utilisant un substrat FD-SOI. Le contrôle électrostatique est encore amélioré grâce à l'utilisation de grilles multiples, ce qui permet de relâcher un peu les contraintes sur les épaisseurs de diélectrique de grille et du body, réduisant de ce fait le risque de dispersion technologique. Les premières mises en œuvre industrielles utilisent l'architecture FinFET. Outre son excellente résistance aux effets de canal court, celle-ci présente l'atout de ne pas nécessiter de prise de contact enterrée. Dans le FinFET, la largeur de l'aileron joue le même rôle que l'épaisseur du body et son ajustement permet d'obtenir une pente sous le seuil élevée, un coefficient de body faible et une vitesse de commutation élevée, ce qui le rend très attractif. Certaines étapes de fabrication restent toutefois délicates. C'est le cas de la structuration des ailerons. Par exemple, le parfait contrôle de la largeur des ailerons et de la forme des flancs qui doivent être parfaitement verticaux impose de faire appel à une gravure ionique réactive (RIE). Ce n'est pas gênant pour la face supérieure de l'aileron, qui est protégée par un masque dur, mais cela peut dégrader les faces verticales et les rendre rugueuses. Or l'interaction avec la rugosité de surface est le mécanisme principal qui limite la mobilité des porteurs en forte inversion. Il y a donc un risque de dégrader les propriétés de transport et, dans le pire des cas, de réduire le courant Ion en régime passant. C'est ce que nous avons voulu étudier. Comme la rugosité a un impact direct sur le transport, elle peut en principe être extraite d'une analyse détaillée de la mobilité. Ceci permet d'obtenir une information directe sur l'état des interfaces dans le transistor réel, information précieuse pour guider l'optimisation technologique. Nous présentons ici une méthode expérimentale qui fournit une évaluation quantitative de la contribution de la rugosité. Elle est basée sur une analyse détaillée de l'influence de la largeur de l'aileron sur les caractéristiques électriques en fonction de la polarisation de grille et de la température. Les FinFETs utilisés pour cette étude ont été fabriqués par l'IMEC (Leuven) sur substrat SOI, avec une épaisseur de BOX de 145 nm. Ils n'utilisent pas de technique de contrainte mécanique intentionnelle. Le canal est non dopé, avec une concentration résiduelle de bore de 10^15 cm^-3, de façon à éviter les interactions avec les impuretés ionisées et à atteindre une mobilité plus élevée. Le diélectrique de grille, HfSiON, est déposé par MOCVD, pour une épaisseur équivalente d'oxyde de 1.7 nm. Une couche de TiN, déposée par PVD est utilisée comme métal de grille. Elle est recouverte de 100 nm de silicium polycristallin. Les plots de source et de drain sont fortement dopés, à 2x10^20 cm^-3, et sont séparés de la grille de 0.2 µm. La zone d'accès sous les espaceurs verticaux est longue de 50 nm, avec un dopage de 5x10^19 cm-3. La hauteur de l'aileron est constante sur la plaque, avec une valeur de 65 nm, et le masque intègre des transistors de largeur d'aileron variable de 10 nm à 10 µm. Notez que la pente des courbes ID-VG, la transconductance, est nettement plus faible à 77 K qu'à température ambiante. Dans les transistors NMOS, le courant de drain décroît même à forte tension de grille (au dessus de 1.3 V). Il est possible de décorréler les composantes associées à la surface supérieure et aux flancs de l'aileron en analysant la variation du courant avec la largeur Wfin de l'aileron. On obtient une variation linéaire dont l'extrapolation à largeur nulle fournit la composante IDside du courant associée aux parois latérales, avec une largeur de grille équivalente égale à 2xHfin. Ce courant ne représente bien entendu pas le courant qui circulerait dans un aileron de largeur nulle, mais la composante du courant qui circule le long des flancs dans les ailerons de largeur suffisante pour que les effets de couplages entre faces soient négligeables. Le courant qui circule le long de la face supérieure de l'aileron est obtenu par différence de IDside avec le courant total. Pour analyser ces courbes il faut se rappeler des caractéristiques des principaux processus d'interaction qui sont susceptibles de limiter la mobilité: les interactions Coulombiennes sont d'autant plus efficaces qu'on est en plus faible inversion, elles sont écrantées en forte inversion et varient peu avec la température ; l'interaction avec les phonons décroît fortement quand la température décroît, du fait du gel des phonons ; enfin, l'interaction avec la rugosité de surface prend progressivement le pas sur les autres mécanismes d'interaction en forte inversion, du fait de sa variation en carré du champ effectif Eeff, elle dépend peu de la température. On retrouve ces différents comportements sur les courbes mesurées. On observe en premier lieu que les courbes µeff(Ninv) présentent en faible inversion une pente positive caractéristique d'une interaction Coulombienne. Cette contribution Coulombienne est encore plus visible à basse température dans la mesure où elle devient le mécanisme d'interaction dominant du fait du gel des phonons. En forte inversion, l'interaction avec la rugosité de surface prend progressivement le pas sur les autres mécanismes d'interaction, du fait de sa variation en carré du champ effectif Eeff. Or en forte inversion (Ninv>5x10^12 cm^-2), on observe que la mobilité associée aux flancs décroît plus fortement que celle de la face supérieure, ce qui indiquerait donc que les flancs sont plus rugueux que la face supérieure. En ce qui concerne les flancs, l'analyse qualitative de ces courbes indique donc que la mobilité μeffside est dominée par la rugosité en forte inversion, tandis qu'en faible inversion on est en présence d'interactions avec les phonons et les impuretés Coulombiennes. En ce qui concerne la face supérieure, on observe un comportement général similaire mais μefftop reste sensible à la température même en forte inversion ce qui montre que l'interaction avec les phonons n'est pas complètement masquée par l'interaction avec la rugosité de surface ce qui correspondrait bien à une rugosité moindre pour la face supérieure. Cette différence de rugosité se traduit par une mobilité maximum plus faible sur les flancs (μeffside=600 cm2/Vs and μefftop=650 cm2/Vs at 77K). Dans PMOS, μeffside ne présente pas une aussi forte dégradation en forte inversion que pour les NMOS et elle reste sensible à la température, ce qui indique que la mobilité le long des flancs n'est pas autant dégradée par la rugosité dans le PMOS que dans le NMOS. Ceci ne signifie pas que les caractéristiques physiques de la rugosité sont différentes dans les deux types de composants. C'est son influence sur la mobilité qui est différente. Ce résultat est à rapprocher de résultats antérieurs obtenus dans des transistors sur substrat massif pour expliquer pourquoi les mobilités de trous et d'électrons présentent une dépendance différente avec le champ effectif dans le régime de forte inversion dominé par l'interaction avec la rugosité de surface. Il a été montré par simulation que cette différence de comportement pouvait s'expliquer en tenant compte du fait que, du fait de la différence des structures de bandes, le vecteur d'onde des trous à l'énergie de Fermi, kF, est plus grand pour les trous que pour les électrons, de sorte que les deux types de porteurs ne sont pas sensibles aux mêmes longueurs d'ondes dans la statistique de distribution spatiale de la rugosité. Afin de quantifier la contribution de l'interaction avec la rugosité de surface au courant pour les deux types d'interface, nous avons extrait directement le paramètre de dégradation de la mobilité par le champ effectif, θ2. Ce paramètre traduit le terme de dégradation de second degré, associé à la présence d'une rugosité de surface. Pour obtenir une information quantitative, il faut cependant le normaliser par rapport μ0. Il ne peut pas être utilisé directement car il dépend de la température alors que l'interaction avec la rugosité n'en dépend pas. Cette dépendance est en réalité un reflet de la dépendance en température de μ0. Le paramètre adéquat pour caractériser l'influence de la rugosité est donc θ2/μ0. Ce paramètre peut être également extrait directement de la dérivée par rapport à VG de l'inverse de la mobilité effective. Pour les NMOS, l'interaction avec la rugosité d'interface est environ trois fois plus élevée pour les flancs que pour la face supérieure. Cela correspond à une augmentation d'un facteur 1.7 du coefficient Δ*λ, où Δ est l'écart-type de la rugosité et λ la longueur d'auto-corrélation. Pour les PMOS, on n'observe pas de différence significative entre les valeurs de θ2/μ0 obtenues pour les flancs et pour la face supérieure. Ceci indiquerait que, comme pour les transistors sur substrat massif, les trous sont moins affectés par la rugosité d'interface ou, du moins, sont affectés par une rugosité à plus grande longueur d'onde pour laquelle le procédé RIE joue un rôle négligeable. Il n'en reste pas moins que la rugosité des flancs dégrade la mobilité des NMOS de façon significative, ce qui confère toute leur importance aux études menées actuellement pour améliorer la gravure et mettre au point des procédés de post-traitement.

  • MOSFET SiGe à nanofils: Interactions avec les phonons et les défauts Coulombiens

  • Avec la technologie CMOS conventionnelle, les MOSFET de type P présentent une mobilité plus faible que les MOSFET de type N, du fait des différences dans les structures des bandes de valence et de conduction et, en particulier, des différences de masse effective, plus grande pour les trous que pour les électrons. L'ingénierie de la contrainte et l'utilisation de germanium ou d'alliages SiGe dans les PMOS permet de compenser ce handicap. L'application d'une contrainte mécanique se traduit par une modification de la masse effective et par une levée de dégénérescence des bandes de trous lourds et de trous légers. En particulier, l'application d'une contrainte compressive uniaxiale se traduit par une diminution de la masse effective des trous et par une réduction des interactions inter-vallées qui améliorent toutes deux la mobilité. Avec l'amélioration des technologies de fabrication des substrats SOI, il est désormais possible de réaliser des substrats de silicium contraint sur isolant (s-SOI, pour strained SOI). Ceux-ci sont obtenus en transférant sur isolant une couche de silicium contraint épitaxié sur un substrat SiGe relaxé. Le silicium ainsi transféré est en contrainte biaxiale en tension. L'amélioration de la mobilité des trous est moins importante que pour la contrainte uniaxiale et le décalage de tension de seuil est plus grand. Les PMOS SiGe à nanofils que nous avons caractérisés ont été fabriqués au CEA/LETI sur des substrats de type SOI d'orientation (100). Deux types de substrats ont été utilisés: un substrat standard et un substrat en tension biaxiale (1.3 GPa) qui ont été utilisés pour réaliser des nanofils SiGe respectivement en compression (sur substrat SOI) et non contraints (sur substrat s-SOI). Ils intègrent dans les deux cas une grille high-k/metal. Les détails du processus de fabrication sont décrits dans la référence. Les caractéristiques sont mesurées dans le régime linéaire de fonctionnement, avec une polarisation de drain VD faible, fixée à 10 mV, et pour une tension de grille variant de 0.3 V à 2 V. Ces mesures sont faites à température ambiante. On constate que les différentes structures présentent un bon contrôle de grille à l'exception notable des composants non contraints et courts pour lesquels la pente sous le seuil atteint 580 mV/dec. Les dispositifs longs présentent des pentes sous le seuil (SS) de 67 mV/dec et 65 mV/dec, donc proches de leur valeur idéale à cette température (60 mV/dec), pour les canaux non contraints et contraints. En revanche, la pente sous le seuil ne reste maîtrisée en canal court que dans le cas où SiGe est contraint en compression (100 mV/dec). Nous avons analysé également la dépendance en température de la tension de seuil Vth. La dérivée dVth/dT peut en effet être utilisée pour extraire le dopage moyen dans le canal. Nous en déduisons que le dopage moyen dans le canal des transistors à canal SiGe non contraint est environ 25 fois plus élevé que dans les transistors contraints en compression, bien que le procédé de fabrication soit identique. Les courbes µeff(Ninv) ainsi extraites ont été tracées, pour les transistors non contraints et contraints en compression, pour des canaux courts et longs, et pour des températures allant de 77 K à 300 K. Avec SiGe contraint, les transistors courts et longs se comportent de façon similaire, avec une augmentation de la mobilité à basse température. Ce comportement est typique d'un transport dominé par les phonons (gel des phonons à basse température). On retrouve ce comportement pour SiGe non contraint, mais seulement pour les canaux longs. Pour les canaux longs, on trouve que la mobilité est améliorée d'un facteur 3,5 environ pour les transistors à canal SiGe contraint en compression. Cette amélioration attendue théoriquement montre que la contrainte en compression est bien présente, même pour les canaux de 600 nm, malgré le début de relaxation que peut produire le flambage des fils pour cette longueur. Par opposition, les canaux courts non contraints montrent un comportement opposé avec les autres cas, avec une diminution de mobilité à basse température, particulièrement en faible inversion. Ce type de comportement est normalement observé lorsque les interactions Coulombiennes prennent le pas sur les interactions avec les phonons. La mobilité est alors dégradée. De façon cohérente, on observe de fait que la mobilité apparente des transistors à canal court est environ 6.5 fois plus faible pour les canaux non contraints que pour les canaux contraints, au lieu du facteur 3.5 observé pour les canaux plus longs. Dans une deuxième étape, de façon à décorréler les différents types d'interaction présentes de façon plus quantitative, nous avons extrait des courbes µeff(Ninv) la mobilité en champ faible µ0 qui permet d'obtenir un bon accord entre la courbe expérimentale et le modèle classique. Dans ce modèle, θ1 est le facteur d'atténuation de premier ordre de la mobilité. Il intègre tous les effets participant à la dégradation de mobilité sous l'effet d'un champ transverse et, par conséquent, l'influence de la rugosité de surface. Au premier ordre, la mobilité à faible champ µ0 résulte donc des rôles combinés des interactions avec les phonons et avec les défauts, neutres ou chargés. La mobilité faible champ augmente à basse température dans tous les cas, sauf pour les transistors à canal SiGe non contraint les plus courts. Les dépendances en température pour les interactions avec les phonons, les défauts neutres et les défauts chargés étant connues, il est possible de reconstituer ces courbes µ0(T) expérimentales par une combinaison linéaire de ces trois types d'interactions. C'est ce qui a été fait dans une troisième étape. Les trois types d'interactions sont nécessaires pour obtenir un bon accord. Il n'est pas possible de négliger les interactions avec les défauts neutres. Les interactions avec les défauts neutres et avec les défauts chargés (centres Coulombiens) ont été regroupées entre elles sous le terme interaction avec les défauts. On constate bien que l'interaction avec les phonons est prépondérante pour tous les transistors contraints en compression ainsi que pour les transistors non contraints les plus longs (600 nm). L'interaction avec les défauts est prépondérante sur toute la gamme de température pour les transistors non contraints les plus courts (40 nm). Les canaux de 100 nm représentent un cas intermédiaire où les interactions avec les défauts sont prépondérantes à basse température tandis que l'interaction avec les phonons reprend le dessus à température ambiante. Pour les transistors à canal SiGe contraint, le raccourcissement du canal ne modifie pas significativement le poids relatif des interactions avec les défauts. Pour les transistors à canal non contraint, la contribution relative des défauts est beaucoup plus importante. Elle peut atteindre 98% du total pour les canaux les plus courts. Nous proposons d'interpréter l'ensemble de ces résultats de façon cohérente en considérant d'une part que le dopant utilisé pour implanter les source et drain du transistor diffuse vers le canal par un processus de diffusion assistée par les défauts ponctuels d'implantation (lacunes, interstitiels et amas neutres ou chargés) et, d'autre part, que cette diffusion assistée est moins rapide lorsque SiGe est contraint en compression. La première hypothèse est cohérente avec de nombreuses études sur la diffusion accélérée du bore des source et drain pendant les recuits d'activation, aussi bien dans les transistors bipolaires que dans les transistors MOS. La seconde est cohérente avec des conclusions proposées dans la littérature dans le cas de films SiGe. C'est cependant la première fois qu'un tel effet serait mis en évidence dans des nanofils. Avec ces hypothèses, une zone perturbée comportant des défauts neutres et chargés serait présente près des source et drain du transistor. Cette zone d'étendrait sur une distance plus importante dans les canaux SiGe non contraints. Elle expliquerait que ces dispositifs soient moins résistants aux effets de canal court puisque leur longueur effective de canal serait plus courte. Elle expliquerait également que le dopage moyen dans le canal paraisse plus élevé dans les transistors non contraints. Elle expliquerait enfin l'importance des interactions avec les défauts dans les dispositifs SiGe non contraints les plus courts. Notons que du point de vue des applications, ces résultats sont également importants en ce qu'ils montrent que l'utilisation de SiGe contraint en compression a en réalité un intérêt double: il permet d'augmenter la mobilité et permet en outre d'atteindre des longueurs de canal plus faibles en limitant la diffusion latérale des zones dopées de source et drain.

  • Le transistor sans jonction (JLT) - Conduction en volume et réduction des effets de canal court

  • Le transistor sans jonction est un transistor dans lequel le dopage est de même type de la source au drain. Dans les versions les plus simples d'un point de vue technologique, les implantations de source et drain sont même supprimées et le dopage est entièrement uniforme. C'est donc un dispositif dans lequel la conduction est bloquée par désertion de ce canal dopé et dans lequel il est possible de créer un canal d'accumulation à forte tension de grille. Ce dispositif n'est devenu intéressant qu'avec la capacité à maîtriser des films semi-conducteurs très minces sur isolant. Ce n'est qu'à cette condition qu'il est possible d'obtenir un dispositif normalement bloqué (composant bloqué à tension de grille nulle, propriété nécessaire au fonctionnement normal d'une porte CMOS) avec des matériaux de grille présentant des valeurs usuelles de travail de sortie. Le fonctionnement du JLT est déterminé par deux tensions de référence: la tension de grille Vfb permettant d'obtenir des bandes plates à l'interface semi-conducteur / oxyde de grille et la tension de seuil Vth permettant de déserter le film dopé. En dessous de Vth le canal est complètement déserté ; entre Vth et Vfb il est partiellement déserté, avec une conduction en volume ; au dessus de Vfb un canal d'accumulation se forme en outre à l'interface avec l'oxyde de grille. De par son principe de fonctionnement, le JLT est en principe moins sensible aux défauts d'interface. Dans un MOS à inversion classique, ces défauts sont en partie écrantés en forte inversion. Ils se font sentir principalement en faible inversion, lorsqu'on passe du régime de déplétion au régime d'inversion: le niveau de Fermi au voisinage de l'interface balaye alors la totalité de la bande interdite, ce qui n'est pas le cas dans le JLT. Il est également possible d'obtenir une même charge surfacique avec des champs transverses plus faibles que dans les MOS à inversion, un canal moins confiné en surface et par conséquent une moindre dégradation des propriétés de transport par la rugosité de surface. En contrepartie, l'interaction avec les dopants est toutefois plus importante. Le JLT présente par rapport au MOS à inversion un certain nombre d'avantages, qui motivent les recherches actuelles sur ce composant: (i) il est plus facile à fabriquer puisqu'il n'est plus nécessaire d'assurer l'auto-alignement des source et drain par rapport à la grille (le dopage est uniforme), (ii) les effets de canal court sont en principe réduits ce qui permet de contrôler le DIBL et la pente sous le seuil jusqu'à des longueurs de grille très agressives, (iii) la dégradation de mobilité avec le champ transverse est en principe réduite, (iv) la résistance aux effets de canal court permet de relaxer les contraintes sur l'épaisseur du diélectrique de grille. Cependant ce dispositif demande à être étudié plus en détail. Au cours de cette thèse nous avons pu vérifier sur des composants de Tyndall le rôle important des impuretés ionisées sur la mobilité de canal qui est de ce fait très faible par rapport à ce qui peut être obtenu dans un MOS à inversion.

  • Les nanofils silicium en tant que capteurs - Bruit basse fréquence et limite de détection

  • Dans le dernier chapitre de cette thèse, nous nous intéressons enfin à l'utilisation des nanofils de silicium pour la réalisation de capteurs. La structuration du matériau sous forme de nanofils permet en effet d'augmenter le rapport surface/volume. Une modification minime de la charge sur la surface externe peut modifier le niveau de Fermi dans la section entière du nanofil, ce qui ouvre la voie à une détection électrique de cette modification de charge. Cette dernière peut résulter par exemple d'une transition entre deux états rédox d'une molécule ou d'une hybridation d'ADN. La possibilité de faire croître ces nanofils par des techniques de type "bottom-up" permet d'envisager des techniques de fabrication faible coût où le capteur est réalisé au niveau du "back-end of line" ou en "above-IC", au dessus du circuit d'adressage et de contrôle qui pourrait être intégré à l'étage CMOS. Avant d'envisager une fabrication, nous avons abordé ce sujet de façon théorique pour disposer dans un premier temps d'ordres de grandeur concernant les sensibilités qui peuvent être espérées en fonction des dimensions et du niveau de dopage des nanofils. Nous avons établi un modèle analytique simplifié, validé par des simulations par éléments finis réalisées sous FlexPDE. Pour cette approche simplifiée, nous avons supposé que la charge externe est répartie de façon homogène à la surface du nanofil. Les effets de discrétisation de la charge ne sont pas pris en compte. On calcule la variation relative de conductance G/G0, G0 étant la conductance en l'absence de charge externe, qui résulte d'une variation de la densité surfacique de charges externe Next en résolvant l'équation de Poisson dans une section transverse et une équation de dérive-diffusion selon l'axe du nanofil. Dans la plupart des publications, c'est cette variation relative de conductance qui est utilisée pour caractériser la sensibilité du nanofil en tant que capteur. Par définition, la sensibilité d'un capteur ne devrait pas dépendre de la valeur particulière de la valeur d'entrée. Dans la suite, nous considérons en fait G/G0 comme la réponse du capteur et nous définissons la sensibilité par le paramètre G/G0/Next. Ce paramètre est bien indépendant au premier ordre de la valeur particulière de Next et permet donc de comparer des dispositifs entre eux sans ambiguïté. Une légère dépendance avec Next est cependant introduite si l'on tient compte de l'atténuation de mobilité avec le champ transverse. La sensibilité maximale est alors obtenue près du seuil et décroît progressivement en accumulation. Ceci signifie qu'il est nécessaire d'adapter le type de dopage selon le signe des charges que l'on veut détecter. Par ailleurs, la sensibilité est d'autant plus grande que le diamètre des nanofils est petit. Pour un nanofil de rayon rSi, de dopage Nd (type N), recouvert d'un diélectrique d'épaisseur tox. Cependant, avec la réduction du volume actif, on s'attend également à une augmentation des fluctuations de courant associées au piégeage / dépiégeage des porteurs du canal par des pièges d'interface. Ces fluctuations sont une des causes du bruit basse fréquence dans les composants. Elles risquent de limiter le seuil de détection des capteurs à nanofils. C'est ce que nous avons voulu évaluer. Là encore, nous avons supposé que les pièges d'interface étaient répartis uniformément, avec une densité surfacique Nit à l'interface Si/SiO2 entre le canal semi-conducteur et le diélectrique entourant le nanofil. Les charges externes sont réparties avec la densité Next sur la face externe de ce diélectrique. En supposant que les phénomènes de piégeage/dépiégeage sont poissonniens, nous avons calculé l'écart-type des fluctuations de conductance qui en résultent. Nous avons défini le seuil de détection Next_th comme la densité de charge externe limite pour laquelle la variation de conductance apportée par Next_th est égale à la variation de conductance du au bruit de piégeage dépiégeage. Au premier ordre, Next_th décroît en raison inverse de la racine carrée du diamètre externe et de la longueur du nanofil. La limitation par le bruit basse fréquence peut donc être surmontée par une augmentation de la surface active du capteur. Ceci peut s'obtenir en augmentant la longueur et le diamètre du nanofil, mais au détriment de la sensibilité du capteur et de la valeur nominale de la conductance G0. Le seul degré de liberté permettant d'ajuster ces deux derniers paramètres est alors le dopage. Cette modélisation qui décrit les corrélations entre leur sensibilité et leur seuil de détection permet donc de déterminer une stratégie d'optimisation pour les capteurs à nanofils.

  • Conclusion

  • Cette thèse m'a permis d'aborder des sujets variés allant de la fabrication des composants à leur modélisation. Au début de ce résumé, j'écrivais que la réduction des dimensions est en train d'atteindre ses limites. On pourrait en déduire qu'il n'y a plus moyen d'améliorer le transistor. En réalité, ainsi que je l'ai expérimenté au cours de ce travail, il reste une multitude de pistes à explorer et la recherche sur le transistor est très loin de la fin de son histoire.
    8

    Severino, Raffaele Roberto. "Design methodology for millimeter wave integrated circuits : application to SiGe BiCMOS LNAs". Thesis, Bordeaux 1, 2011. http://www.theses.fr/2011BOR14284/document.

    Testo completo
    Gli stili APA, Harvard, Vancouver, ISO e altri
    Abstract (sommario):
    Grace aux récents développements des technologies d’intégration, il est aujourd’hui possible d’envisager la réalisation de circuits et systèmes intégrés sur Silicium fonctionnant à des fréquences auparavant inatteignables. Par conséquence, depuis quelques années, on assiste à la naissance de nouvelles applications en bande millimétrique, comme la communication sans fil à haut-débit à 60GHz, les radars automobiles à 76-77 et 79-82GHz, et l’imagerie millimétrique à 94GHz.Cette thèse vise, en premier lieu, à la définition d’une méthodologie de conception des circuits intégrés en bande millimétrique. Elle est par la suite validée au travers de son application à la conception des amplificateurs faible-bruit en technologie BiCMOS SiGe. Dans ce contexte, une attention particulière a été portée au développement d’une stratégie de conception et de modélisation des inductances localisées. Plusieurs exemples d’amplificateurs faible-bruit ont été réalisés, à un ou deux étages, employant des composants inductifs localisés ou distribués, à 60, 80 et 94 GHz. Tous ces circuits présentent des caractéristiques au niveau de l’état de l’art dans le domaine, ainsi en confirmant l’exactitude de la méthodologie de conception et son efficacité sur toute la planche de fréquence considérée. En outre, la réalisation d’un récepteur intégré pour applications automobiles à 80GHz est aussi décrite comme exemple d’une possible application système, ainsi que la co-intégration d’un amplificateur faible-bruit avec une antenne patch millimétrique intégrée sur Silicium
    The interest towards millimeter waves has rapidly grown up during the last few years, leading to the development of a large number of potential applications in the millimeter wave band, such as WPANs and high data rate wireless communications at 60GHz, short and long range radar at 77-79GHz, and imaging systems at 94GHz.Furthermore, the high frequency performances of silicon active devices (bipolar and CMOS) have dramatically increased featuring both fT and fmax close or even higher than 200GHz. As a consequence, modern silicon technologies can now address the demand of low-cost and high-volume production of systems and circuits operating within the millimeter wave range. Nevertheless, millimeter wave design still requires special techniques and methodologies to overcome a large number of constraints which appear along with the augmentation of the operative frequency.The aim of this thesis is to define a design methodology for integrated circuits operating at millimeter wave and to provide an experimental validation of the methodology, as exhaustive as possible, focusing on the design of low noise amplifiers (LNAs) as a case of study.Several examples of LNAs, operating at 60, 80, and 94 GHz, have been realized. All the tested circuits exhibit performances in the state of art. In particular, a good agreement between measured data and post-layout simulations has been repeatedly observed, demonstrating the exactitude of the proposed design methodology and its reliability over the entire millimeter wave spectrum. A particular attention has been addressed to the implementation of inductors as lumped devices and – in order to evaluate the benefits of the lumped design – two versions of a single-stage 80GHz LNA have been realized using, respectively, distributed transmission lines and lumped inductors. The direct comparison of these circuits has proved that the two design approaches have the same potentialities. As a matter of fact, design based on lumped inductors instead of distributed elements is to be preferred, since it has the valuable advantage of a significant reduction of the circuit dimensions.Finally, the design of an 80GHz front-end and the co-integration of a LNA with an integrated antenna are also considered, opening the way to the implementation a fully integrated receiver
    9

    Busquere, Jean-Pierre. "Développement et intégration de MEMS RF dans les architectures d'amplificateur faible bruit reconfigurables". Phd thesis, INSA de Toulouse, 2005. http://tel.archives-ouvertes.fr/tel-00446353.

    Testo completo
    Gli stili APA, Harvard, Vancouver, ISO e altri
    Abstract (sommario):
    De nos jours, les modules hyperfréquences doivent de plus en plus présenter non seulement des performances électriques sans cesse améliorées mais aussi des fonctionnalités nouvelles ainsi que de fortes compacités, et des coûts de fabrication les plus réduits possibles. Les perspectives attractives apportées par l'utilisation des technologies SiGe permettent aujourd'hui d'envisager la réalisation de circuits intégrés jusqu'aux fréquences millimétriques tandis que, dans le même temps, le développement rapide des technologies MEMS RF permet de réaliser de nouvelles fonctionnalités au niveau des circuits radiofréquences. Dans la première partie de ce mémoire, nous proposons un concept d'amplificateur faible bruit reconfigurable en fréquence (HIPERLAN et BLUETOOTH), basé sur l'association des technologies SiGe et MEMS RF. Conception et performances simulées des amplificateurs élaborés à la fois pour une intégration monolithique et une autre par fil de souduresont alors présentées. La deuxième partie est entièrement consacrée à la conception et la réalisation des MEMS RF suivant les spécifications que nous avons établi lors de la première partie. Conception, réalisation et caractérisation des structures MEMS RF sont présentés, pour aboutir à l'obtention de performances situées à l'état de l'art pour des capacités autant séries que parallèles. La dernière partie, traite de l'assemblage entre les deux technologies MEMS et SiGe, avec trois études réalisées sur une intégration monolithique dite « Above IC », un assemblage par fils de soudure et un assemblage Flip Chip. Au final, des modules de test assemblés sont présentés et caractérisés
    10

    Coustou, Anthony. "Conception et caractérisation de circuits intégrés en technologie BiCMOS SiGe pour application de télécommunication en bande X". Phd thesis, Université Paul Sabatier - Toulouse III, 2001. http://tel.archives-ouvertes.fr/tel-00131800.

    Testo completo
    Gli stili APA, Harvard, Vancouver, ISO e altri
    Abstract (sommario):
    Les progrès de la technologie silicium germanium (SiGe) suscitent sa possible utilisation dans les applications à haute fréquence. Les travaux décrit dans ce mémoire visent à étudier les potentialités de cette technologie pour la réalisation de circuits intégrés monolithiques (MMIC) faibles bruit dans la bande de 10 GHz. Ce mémoire est articulé autour de trois chapitres. Le premier rappelle les contraintes auxquelles doit répondre un transistor bipolaire afin d'être utilisable dans les circuits RF millimétriques. La technologie qu'à développé STMicroelectronics pour ce domaine d'application est ensuite présentée. Enfin, le travail de caractérisation qui a été réalisé afin de valider le comportement des modèles que nous allons utiliser pour concevoir des circuits RF est présenté. Le second chapitre est consacré à la conception de circuits amplificateurs à faible bruit. La méthode de travail ainsi que les topologies de circuits sont présentées. Le résultat des caractérisations effectuées est ensuite présenté. Nous terminons en concluant au sujet des performances en terme de consommation, linéarité, gain et facteur de bruit des différents circuits. Le troisième chapitre aborde la conception de sources radiofréquence à faible bruit de phase. Les différentes topologies de circuits que nous avons étudiés sont présentées, ce qui nous a permis de mettre en évidence les topologies offrant les meilleures performances. Enfin, une technique basée sur le principe de dégénérescence de bruit, est également présentée. Ce travail nous a permis d'intégrer sur un circuit MMIC, autour d'un circuit oscillateur de type Colpitts, un dispositif réducteur de bruit. Les résultats théoriques de cette étude ont montré l'efficacité de cette méthode.

    Libri sul tema "Signe faible":

    1

    Hill, Reginald. Fairly Dangerous Things (Signet). Signet, 1986.

    Cerca il testo completo
    Gli stili APA, Harvard, Vancouver, ISO e altri
    2

    Hill, Reginald. Fairly Dangerous Things (Signet). Signet, 1986.

    Cerca il testo completo
    Gli stili APA, Harvard, Vancouver, ISO e altri
    3

    Etheridge, Maxine. Failed to See: The Warning Signs. Independently Published, 2020.

    Cerca il testo completo
    Gli stili APA, Harvard, Vancouver, ISO e altri
    4

    Millikan, Ruth Garrett. Intentional Signs. Oxford University Press, 2017. http://dx.doi.org/10.1093/oso/9780198717195.003.0012.

    Testo completo
    Gli stili APA, Harvard, Vancouver, ISO e altri
    Abstract (sommario):
    An intentional sign family has the structure of an infosign family, with variants and invariants. It is a reproductively established family, a REF, that proliferates because enough of its members are also members of an informational sign family and, as such, have served to effect communication between cooperative senders and receivers that have learned or been designed or use these signs for mutual benefit. It is a proper function of an intentional sign to complete such a communication process by producing a cooperative overt or covert receiver response. In Normal cases, this response benefits or fits with further purposes of both sender and receiver. Intentional signs that fail to carry natural information that coincides with their intentional content are wrong, false, or unfulfilled. Besides linguistic signs, intentional signs include signals used by non-human animals, maps, charts and diagrams, instrument readings, and inner representations.
    5

    Hatfield, Anthea. Shock. Oxford University Press, 2014. http://dx.doi.org/10.1093/med/9780199666041.003.0020.

    Testo completo
    Gli stili APA, Harvard, Vancouver, ISO e altri
    Abstract (sommario):
    Shock is a clinical diagnosis that occurs when the circulation fails. Read this chapter carefully and learn to recognize the early signs and symptoms of shock. Ideally you should be treating shock even as you make the diagnosis. This chapter will teach you about the different types of shock, their distinguishing features, and specific treatments. You will also learn to distinguish the different stages of shock and the physiology paragraphs will help you understand the changes the body’s metabolism.
    6

    Polèse, Mario. The Wealth and Poverty of Cities. Oxford University Press, 2019. http://dx.doi.org/10.1093/oso/9780190053710.001.0001.

    Testo completo
    Gli stili APA, Harvard, Vancouver, ISO e altri
    Abstract (sommario):
    Much has been written about cities as engines of growth and prosperity. Cities have been centers of civilization since the beginning of history. A rich nation without cities is an impossibility. Yet, as this book explains, the central foundations of wealth and economic well-being are rooted in the attributes of nations and actions of national governments. If the nation does not work, nor will its cities. This book looks at the economy of cities through the lens of “The Ten Pillars of Urban Success,” covering a full range of policy concerns from top (i.e., sound macroeconomic management) to bottom (i.e., safe neighborhoods). Cities rich and poor around the world that are as different as New York, Vienna, Buenos Aires, and Port au Prince are examined. Urban success or failure almost always takes us back to the wise or unwise decisions of national and/or state governments. Urban success is about more than economics. Cities that have managed to produce livable urban environments for the majority of their citizens mirror the societies that spawned them. Similarly, cities that have failed are almost always signs of more deep-rooted failures. A socially cohesive city in a divided nation is an oxymoron. In the final chapter, the book proposes a critical look at America’s urban failures, its declining Rustbelt cities, and inner-city ghettos. Such failures should not have happened in the world’s richest nation. That they did is not only the sign of a deeper malaise, but also a warning to the wealthy urbanizing societies of tomorrow.
    7

    Hoover, Jesse A. “As We Have Already Seen in Africa”. Oxford University Press, 2018. http://dx.doi.org/10.1093/oso/9780198825517.003.0006.

    Testo completo
    Gli stili APA, Harvard, Vancouver, ISO e altri
    Abstract (sommario):
    Chapter 5 presents the apocalyptic model developed by the Donatist theologian Tyconius as a deliberate alternative to mainstream Donatist eschatology. Instead of viewing the Donatist communion as a prophesied remnant, Tyconius recasts the Donatist–Caecilianist schism as an eschatological symbol: while not itself an apocalyptic event, it is predicted in the book of Revelation as a sign and a warning to the worldwide church of the imminent “separation” between the true church and the false brothers within it. Though it ultimately failed to convince the members of his own communion, Tyconius’ strikingly original eschatology would dominate western apocalyptic exegesis for centuries.
    8

    Spiegel, Avi Max. Every Recruiter is a Reinterpreter. Princeton University Press, 2017. http://dx.doi.org/10.23943/princeton/9780691159843.003.0008.

    Testo completo
    Gli stili APA, Harvard, Vancouver, ISO e altri
    Abstract (sommario):
    This chapter considers how young Islamist activists construct religious authority. To engage these questions, the author asked and allowed activists to construct for themselves what authority meant to them, with some even drawing an evolving organizational chart of their movements. The author observed signs of ambiguity, multiplicity, and even inconsistency. Some activists sought to go out of their way to illustrate that they were not under the control of any kind of religious authority, even conceiving something called “religion” as very much distinct from their work. Others blurred these categories, preferring to place their activism under the domain of some kind of religious authority, both explaining and attempting to show how it is part and parcel of their everyday existence. Some failed to mention religion as important to their work at all. Others spoke solely of it.
    9

    Rosati, Alexandra G. Ecological variation in cognition: Insights from bonobos and chimpanzees. Oxford University Press, 2018. http://dx.doi.org/10.1093/oso/9780198728511.003.0011.

    Testo completo
    Gli stili APA, Harvard, Vancouver, ISO e altri
    Abstract (sommario):
    Bonobos and chimpanzees are closely related, yet they exhibit important differences in their wild socio-ecology. Whereas bonobos live in environments with less seasonal variation and more access to fallback foods, chimpanzees face more competition over spatially distributed, variable resources. This chapter argues that bonobo and chimpanzee cognition show psychological signatures of their divergent wild ecology. Current evidence shows that despite strong commonalities in many cognitive domains, apes express targeted differences in specific cognitive skills critical for wild foraging behaviours. In particular, bonobos exhibit less accurate spatial memory, reduced levels of patience and greater risk aversion than do chimpanzees. These results have implications for understanding the evolution of human cognition, as studies of apes are a critical tool for modelling the last common ancestor of humans with nonhuman apes. Linking comparative cognition to species’ natural foraging behaviour can begin to address the ultimate reason for why differences in cognition emerge across species. Les bonobos et les chimpanzés sont prochement liés, pourtant ils montrent d’importantes différences dans leur sociologie naturelle. Alors que les bonobos vivent dans des environnements avec peu de diversité de climat entre saisons et plus d’accès à des ressources de nourriture alternatives, les chimpanzés ménagent une compétition étalée spatialement et des ressources plus variées. Je soutiens que la cognition des chimpanzés et bonobos montre les signatures psychologiques de leur écologie naturelle divergente. Les témoignages courants montrent que, malgré les forts points communs dans en cognition, les grands singes expriment des différences au niveau de compétences cognitives importantes au butinage. En particulier, les bonobos démontrent une mémoire spatial moin précise, moin de patience, et plus d’aversion de risques que les chimpanzés. Ces résultats fournissent des signes dans l’étude de l’évolution de la cognition humaine. Les études des grands singe sont un outil d’importance majeure dans la modélisation du dernier ancêtre commun des humains et grands singes non-humains. Faire des liens cognitives comparatives entre le butinage des différentes espèces peut commencer à dévoiler les raisons pour les différences de cognition entre espèces.
    10

    Byers, Mark. Thrown Down Glyphs. Oxford University Press, 2018. http://dx.doi.org/10.1093/oso/9780198813255.003.0005.

    Testo completo
    Gli stili APA, Harvard, Vancouver, ISO e altri
    Abstract (sommario):
    The ‘modest’ aesthetic imagined by Olson and his contemporaries, critical of abstract or scientific reason, is seen in the fourth chapter to have found expression in a second major formal development. The chapter begins by asking why pictographic or ideographic writing emerged so strongly in American visual art between 1943 and 1951. Turning to the ‘sign which refuses to signify’ (Ad Reinhardt), American artists—including Olson, Pollock, Gottlieb, Lee Krasner, and the photographer Aaron Siskind—are shown to have found a language which reflected their critique of both scientific reason and those political languages (especially Marxism) which had failed to account for historical contingency. The avant-garde is seen to have valued the glyph, pictogram, or ideograph for its ‘uncertainty’; a major theme in Olson’s work of the period.

    Capitoli di libri sul tema "Signe faible":

    1

    Renner, Michael. "Wage Gap Widens as Wages Fail to Keep Pace with Productivity". In Vital Signs, 80–83. Washington, DC: Island Press/Center for Resource Economics, 2013. http://dx.doi.org/10.5822/978-1-61091-457-4_19.

    Testo completo
    Gli stili APA, Harvard, Vancouver, ISO e altri
    2

    Bansal, Jagdish Chand, Prathu Bajpai, Anjali Rawat e Atulya K. Nagar. "Advancements in the Sine Cosine Algorithm". In Sine Cosine Algorithm for Optimization, 87–103. Singapore: Springer Nature Singapore, 2023. http://dx.doi.org/10.1007/978-981-19-9722-8_5.

    Testo completo
    Gli stili APA, Harvard, Vancouver, ISO e altri
    Abstract (sommario):
    AbstractIn the last few decades, the development and advancement of meta-heuristic algorithms have become the focus of the research community as these algorithms face various challenges like, balance between exploration and exploitation, tuning of parameters, getting trapped in local optima, and very slow convergence rate. Sine cosine algorithm (SCA) also faces similar kinds of challenges and sometimes fails to perform effectively in finding the global optimal solution. Sine and cosine are trigonometric operators with a 90$$^\circ $$ phase shift from each other. The range of sine and cosine functions lies in the range $$[-1,1]$$. Sine and cosine functions in the position update equation of SCA help solutions to perform search procedure. However, in some situations, SCA promotes similar solutions in the search space, which results in the loss of diversity in the population, and the search process is susceptible to trapping in the region of local optimum [1]. Motivated by these challenges, SCA has been modified to improve its capability and efficiency in several ways. Several strategies have been employed to alter the basic version of SCA [2], aiming to enhance its effectiveness and optimization capabilities. In this chapter, we will discuss about these modifications and strategies, which have been incorporated into the sine cosine algorithm (SCA) in past few years. Apart from this, we will briefly describe the applications of the modified versions of SCA.
    3

    Kerns, Becky K., Therese M. Poland, Robert C. Venette, Toral Patel-Weynand, Deborah M. Finch, Allen Rowley, Deborah C. Hayes e Mike Ielmini. "Future Invasive Species Research Challenges and Opportunities". In Invasive Species in Forests and Rangelands of the United States, 329–33. Cham: Springer International Publishing, 2021. http://dx.doi.org/10.1007/978-3-030-45367-1_16.

    Testo completo
    Gli stili APA, Harvard, Vancouver, ISO e altri
    Abstract (sommario):
    AbstractIntroductions of new invasive species continue with ever-expanding global trade, and the increase in invasive species does not show any sign of saturation for most taxonomic groups. However, some non-native species may arrive in an area and fail to become established or have no measurable impact. Thus, the protection of valued ecosystems depends on reliable knowledge about the species that are or might be invading, the ecosystems that are being invaded, the potential magnitude of different types of harm, the availability and effectiveness of management responses, and the desired state of ecosystems under protection. Primary research is a vital means of gathering that knowledge.
    4

    Hare, R. M. "Some Subatomic Particles Of Logic". In Objective Prescriptions, 28–42. Oxford University PressOxford, 1999. http://dx.doi.org/10.1093/oso/9780198238539.003.0003.

    Testo completo
    Gli stili APA, Harvard, Vancouver, ISO e altri
    Abstract (sommario):
    Abstract I CAN best begin this contribution to the articulation of speech acts with a consideration of the Fregian ‘assertion sign’, or, to speak more accurately, ‘judgement stroke’. This correction itself warns us that there is not just one kind of sign that has to be examined, but several. and that an elucidation of this difficult subject has to begin with a careful distinction between them. Only then can we see which of these signs are necessities. or even possibilities, for logic-that is. what we are to say about Wittgenstein’s complete dismissal of Frege’s sign. in Tractatus 4.442 and subsequently, as ‘logically quite meaningless’. I submit this discussion as a penance for having failed to make the necessary distinctions clear in my first book. in spite of being at least partially aware of them at the time (LM 2. I). I later made some of them in print, especially that between what I shall be calling signs of subscription and signs of mood (H 1970). In spite of this. the distinction is still often neglected: in particular, both Dummett’s (1973: 308) and Davidson’s (1984: 110) discussions would have been a great deal clearer if they had been more attentive to it I should perhaps add that I have found Dummett’s treatment of assertion rewarding, and agree with most of it.
    5

    Mellier, Denis. "L’aventure de la faille apocryphe ou Reichenbach et la Sherlock-fiction". In Sherlock Holmes et le signe de la fiction, 135–87. ENS Éditions, 1999. http://dx.doi.org/10.4000/books.enseditions.22810.

    Testo completo
    Gli stili APA, Harvard, Vancouver, ISO e altri
    6

    Driediger-Murphy, Lindsay G. "Unsuccessful Sacrifice in Roman State Divination". In Ancient Divination and Experience, 178–200. Oxford University Press, 2019. http://dx.doi.org/10.1093/oso/9780198844549.003.0008.

    Testo completo
    Gli stili APA, Harvard, Vancouver, ISO e altri
    Abstract (sommario):
    This chapter explores what Romans thought they were doing through sacrifice, and what this can tell us about Roman conceptions of the relationship between gods and human beings. The chapter focuses on those animal sacrifices that Romans believed had been unsuccessful in that they had failed to please the gods. The chapter queries the current consensus that Roman divinatory sacrifices generally proceeded until a favourable sign was obtained (usque ad litationem). It is argued that Roman magistrates took signs from failed sacrifices more seriously than we have often thought, and that this behaviour can be read as evidence that they were anxious about their relationship with their gods.
    7

    OMBAKANÉ, Simon. "« Ce Rendez-vous avec la gloire » de Jean-Denis Bredin ou la pédagogie de la création littéraire". In Sous le signe du signe ou l’art d’être sémioticien, 143–56. Editions des archives contemporaines, 2022. http://dx.doi.org/10.17184/eac.4807.

    Testo completo
    Gli stili APA, Harvard, Vancouver, ISO e altri
    Abstract (sommario):
    Jean-Denis Bredin dans Ce rendez-vous avec la gloire, au-delà des préoccupations esthétiques habituelles, permet de suivre l’itinéraire de son personnage principal dans la posture d’un jeune romancier. Démarche scripturale assez surprenante mais ô combien didactique pour ce romancier. Hector Boulon, qui termine sa scolarité en se questionnant sur son avenir, décide d’atteindre la gloire par la voie de l’écriture. Toute chose qui laisse entrevoir un certain nombre d’éléments significatifs dessinant un schéma actantiel. La littérature permettrait alors, entre autres, d’intéresser les lecteurs, qu’ils soient jeunes ou pas, au processus de la création littéraire. Dans cette optique, la préoccupation ici est celle de la lecture d’un roman comme un atelier de création littéraire au-delà du caractère essentiellement imaginaire de l’écriture qui le conditionne. La question que l’on peut se poser est celle de savoir comment cet auteur réussit-il le pari à faire de ce texte une pédagogie de la création littéraire ? La sémiotique narrative de Greimas et la génétique textuelle de Gustave Rudler nous aideront à répondre à cette interrogation. Il s’agira d’appréhender les mécanismes de la création, à partir des concepts d’actants, de génotexte et de phéno-texte et les procédés y afférents.
    8

    Deely, John. "Ne Suffit Jamais un Corps pour Faire un Signe". In Semiotics, 243–48. Semiotic Society of America, 2002. http://dx.doi.org/10.5840/cpsem20024.

    Testo completo
    Gli stili APA, Harvard, Vancouver, ISO e altri
    9

    Gore, Clare Walker. "At the Margins of Mystery: Sensational Difference in Wilkie Collins". In Plotting Disability in the Nineteenth-Century Novel, 74–115. Edinburgh University Press, 2020. http://dx.doi.org/10.3366/edinburgh/9781474455015.003.0003.

    Testo completo
    Gli stili APA, Harvard, Vancouver, ISO e altri
    Abstract (sommario):
    This chapter explores the role of disability in Wilkie Collins’s mystery novels. These depend for their plotting upon generating uncertainty about the true identities of the characters at hand, and encourage the reader to mistrust the signs of social and novelistic identity; the signs of the body are therefore placed under tremendous pressure. On one hand, somatic signs are represented as crucial clues for reader and detective; on the other, they must fail us at least some of the time for the mystery to be sustained. Collins uses disability as an unreliable sign in exactly this way, engaging with the reader’s preconceptions about disabled characters’ relationship to plot so that he can perform sensational reversals at the novels’ conclusions. Disability also enables Collins to put sensation to affective work, as he represents characters’ disabilities in such a way as to elicit sympathy for their social and narrative exclusion.
    10

    Hood, Eric. "‘Your Fourier’s Failed’". In Women's Literary Networks and Romanticism, 274–97. Liverpool University Press, 2018. http://dx.doi.org/10.5949/liverpool/9781786940605.003.0010.

    Testo completo
    Gli stili APA, Harvard, Vancouver, ISO e altri
    Abstract (sommario):
    This chapter traces the affective forces at work in Elizabeth Barrett Browning’s representation of utopian socialist Charles Fourier in Aurora Leigh (1855). In Barrett Browning’s verse-novel, “Fourier” operates as a sign mediated by networks of affect, referring not only to the political struggles surrounding socialism in the 1850s but also to Barrett Browning’s personal psychoanalytic conflicts against both her father and her own queer desires (particularly, for George Sand). Thus, “Fourier” functions as a nodal point in Aurora Leigh where a political crisis and the author’s individual psychological needs meet to produce a dismissal of the economic and social alternatives that were available at that historical moment and the forms of queer identity that challenged the heteronormative, liberal order.

    Atti di convegni sul tema "Signe faible":

    1

    Andersson, Fred. "Groupe µ and “the system of plastic form” -for an evaluation-". In Le Groupe μ : quarante ans de rhétorique – trente-trois ans de sémiotique visuelle. Limoges: Université de Limoges, 2010. http://dx.doi.org/10.25965/as.3097.

    Testo completo
    Gli stili APA, Harvard, Vancouver, ISO e altri
    Abstract (sommario):
    Le Groupe µ et "le système de formes plastiques” -à propos d’une évaluation- L’objectif de cet article est de fournir quelques exemples et de proposer certains éclaircissements qui peuvent contribuer à la compréhension de la théorie du signe plastique conçu par le Groupe μ. Plus précisément, l’article porte sur les éléments de la théorie en question qui constituent une analyse du système de la forme tant qu’elle est distincte du système de la couleur et du système de la texture. Dans l’espoir de faire connaître quelques-uns des fondations et des implications de ce système de forme plastique, principalement aux lecteurs anglo-saxons, l’article tente également de clarifier sa place au sein de la théorie générale du signe visuel articulé par Groupe μ dans son Traité du signe visuel (1992). La première section de l’article traite de la notion esthétique générale de forme et de sa relation avec d'une part la notion de forme/formation visuelle et de l'autre la notion de forme sémiotique telle qu’elle a été développée par Hjelsmlev. On prend note du risque que les visées d’une sémiotique plastique puissent être indûment confondues avec celles du formalisme dans l'esthétique. Selon l’avis de l’auteur, les études de sémiotique visuelle ne sauraient bénéficier de ce genre de confusion, mais devraient plutôt tenter de maintenir sa distance par rapport aux conjectures et luttes de pouvoir dans le(s) monde(s) de l'art. La deuxième section explique la distinction faite par le Groupe μ entre le signe iconique et le signe plastique, conçus comme des couches séparées du signe visuel. Selon le Groupe μ, le signe iconique forme une structure triadique contenant le signifiant, le type et le référent. Il y a des similarités entre cette conception et le triangle d’Ogden & Richards. Or, la notion du Type a des implications plus vastes que la conception d’Ogden & Richards, selon lesquels il existe une image très générale qui met en relation symbole/signifier et référent – le type est ici le résultat de modélisations et de catégorisations, et il est valable aussi bien pour le signe iconique que pour le signe plastique. Par définition, le signe plastique manque de référent : la relation entre un motif et ses variations dépend donc uniquement du rapport Signifier/Type. Sur la base de cette relation Signifier/Type, les signes plastiques apparaissent, selon le Groupe µ, aux trois niveaux de la sémiose, sur le niveau purement plastique, sur le niveau extravisuel (ou symbolique), et dans une interaction avec le signe iconique sur le niveau iconico-plastique. La troisième section de l’article explique le système de forme plastique telle qu’elle est conçue par le Groupe μ. Le système est constitué par trois « formemes » (ou catégories), à savoir position, dimension et l'orientation. Il est conçu en termes de figures apparaissant dans un plan restreint. Comme les relations fondamentales dans le plan sont celles entre le centre - la marge, le haut - le bas et la gauche - la droite, le système de positions alternatives (par exemple marginal, au-dessus et au centre) est isomorphe au système d'autres orientations (par exemple vers l'intérieur, d'en haut vers le centre). Le système d'autres dimensions/tailles, par contraste, est défini par le biais de la fonction de la taille de la figure en relation à la taille du plan de l’image et le point focal. Ces valeurs plastiques de position, de dimension et d’orientation sont les signifiants du système. Ils sont liés à leurs signifiés de la manière suivante : la position à l’attraction, la dimension à la domination, l'orientation à l'équilibre. Cette corrélation est validée par les auteurs au moyen d’une démonstration visuelle. Dans la quatrième et dernière section de l’article, des observations sont faites au sujet des répercussions plus vastes ainsi que des applications du système. Conformément à la visée du propre Groupe µ à surmonter les limitations qui résultent de la spécialisation de disciplines telles que la psychologie de la perception, l'auteur soutient que des systèmes théoriques comme celui du système plastique peut fournir un cadre interdisciplinaire qui facilite l’évaluation à la fois des données scientifiques et des discours philosophiques généraux concernant le monde visuel. En ce qui concerne des applications plus proches, l'auteur estime que les théories du sens visuel et de la rhétorique du Groupe μ, si elles étaient plus largement connues, contribueraient considérablement à la compréhension de l'importance du sens plastique dans la communication visuelle et au développement des méthodes pédagogiques pour la description et l’interprétation de l'image.
    2

    Jackson, Peter S., Andreas Fabricius e Alexandria Wholey. "Failure Analysis of SA-213 T91 HRSG Superheater Tube Weld". In ASME 2019 Power Conference. American Society of Mechanical Engineers, 2019. http://dx.doi.org/10.1115/power2019-1890.

    Testo completo
    Gli stili APA, Harvard, Vancouver, ISO e altri
    Abstract (sommario):
    Abstract The root cause of a series of similar failures in SA-213 T91 Superheater tubes of an Heat Recovery Steam Generator (HRSG) is investigated using a combination of engineering analysis and review of process data. The HRSG at the Combined Cycle Gas Turbine (CCGT) Power Plant power plant in question had suffered from frequent tube-to-header fatigue failures over the past 10 years. Metallurgical analyses had never identified any sign of creep damage in, or near, any of the failure locations. Recently, the Gas Turbine (GT) exhaust gas flow pattern upstream of the SH tubes changed slightly. Subsequently there were a large number of HPSH tube to header failures (> 10) on one side of the gas duct. Metallurgical analysis showed that the tube-to-header welds failed by creep-fatigue damage; analyses of tubes from the left-hand side of the boiler did not show any signs of similar damage being present. Further investigation confirmed that the root cause was identified as higher temperatures resulting from small changes in the GT outlet flow pattern.
    3

    Kitajima, Nobuaki, Naoto Yanai, Takashi Nishide, Goichiro Hanaoka e Eiji Okamoto. "Constructions of Fail-Stop Signatures for Multi-signer Setting". In 2015 10th Asia Joint Conference on Information Security (AsiaJCIS). IEEE, 2015. http://dx.doi.org/10.1109/asiajcis.2015.26.

    Testo completo
    Gli stili APA, Harvard, Vancouver, ISO e altri
    4

    DeWald, Adrian T., Scott Cummings e John Punwani. "Measurement of Residual Stress in Railway Wheels With Vertical Split Rim Failures". In ASME 2012 Rail Transportation Division Fall Technical Conference. American Society of Mechanical Engineers, 2012. http://dx.doi.org/10.1115/rtdf2012-9422.

    Testo completo
    Gli stili APA, Harvard, Vancouver, ISO e altri
    Abstract (sommario):
    Residual stresses are known to significantly impact the initiation and growth of cracks in metallic components such as railway wheels. Tensile residual stresses are of particular concern due to their ability to non-conservatively affect performance. Vertical split rim (VSR) is an important failure mode for railway wheels. Vertical split rim, like any crack growth failure mode, is significantly influenced by residual stress (e.g., mean or steady stress effects). The crack face of a typical VSR wheel shows signs of low-cycle fatigue. Recently, residual stress measurements were performed on a set of Class C railway wheels. This study looked at the difference in axial residual stress for wheels in three primary conditions: new (as manufactured), service-worn, and wheels that failed through VSR. Residual stresses were significantly larger in the service-worn condition and for wheels that had failed due to VSR relative to the new condition. There is a small difference in the axial residual stress profiles of wheels that failed due to VSR compared to other service-worn wheels. It is unclear, however, if the difference is significant based on a limited population of data. This paper provides a description of the methods used to quantify residual stress in the Class C railway wheels and presents important results from the study.
    5

    Feng, Michael, Peter Kwok, Dariusz Pryputniewicz, Ryan Marinis e Ryszard Pryputniewicz. "Dynamic Analysis to Confirm Lead Failure of a 352-Pin CQFP Under Shock". In ASME 2009 International Mechanical Engineering Congress and Exposition. ASMEDC, 2009. http://dx.doi.org/10.1115/imece2009-11400.

    Testo completo
    Gli stili APA, Harvard, Vancouver, ISO e altri
    Abstract (sommario):
    During qualification testing of an electronics module, several leads in one corner of a 352 pin ceramic quad flat pack (CQFP) component failed. The module was exposed to several different environments including sine vibration, thermal cycling, random vibration, and shock. The last test environment applied was seven consecutive shocks normal to the printed wiring board. Given the severity of the shock response spectrum, it was believed that the shocks normal to the board were the culprit. Therefore, a finite element model (FEM) was created of the module to diagnose the cause of the failure. The FEM modeled all 352 CQFP leads using quadratic beam elements. Besides the CQFP, the FEM also included the aluminum frame, the printed wiring board, and several adjacent components. It was validated by comparing the board’s mode frequencies and shapes computed in ANSYS to those imaged by optoelectronic holography on the test hardware. ANSYS was also used to rule out sine vibration, random vibration, and thermal cycling as causes of the failure. To evaluate the stress levels in the leads during the shock pulse, the actual acceleration experienced by the hardware during a shock pulse was recorded and used in an explicit dynamic analysis in LS-DYNA. In addition, a bilinear elastic-plastic material model was used for the kovar leads. The analysis showed that the suspect leads reached their ultimate tensile strength by the fourth consecutive shock. These results confirmed that the leads failed due to the consecutive shock pulses. The FEM was subsequently used to evaluate a redesign of the module to mitigate the risk to mechanical shock.
    6

    Panko, Danielle, T. Vanhoucke, Richard Campos e G. A. M. Hurkx. "Time-to-Fail Extraction Model for the "Mixed-Mode" Reliability of High-Performance SiGe Bipolar Transistors". In 2006 IEEE International Reliability Physics Symposium Proceedings. IEEE, 2006. http://dx.doi.org/10.1109/relphy.2006.251271.

    Testo completo
    Gli stili APA, Harvard, Vancouver, ISO e altri
    7

    Murdoch, E., P. Asthana, A. Bukhamseen e T. Ghamdi. "Fiber Monitoring of TRSSV to Monitor Health and Forecast Failures". In International Petroleum Technology Conference. IPTC, 2024. http://dx.doi.org/10.2523/iptc-24032-ea.

    Testo completo
    Gli stili APA, Harvard, Vancouver, ISO e altri
    Abstract (sommario):
    Abstract Sub-surface safety valves (SSSV) are critical to the safe functioning of a well. Whilst they are tested regularly, they have limited diagnostics, valves that are experiencing reduced performance are not detected until they fail a test. This typically requires the well to be shut in until remedial action can be undertaken. This paper will set out a new philosophy to use fiber optic sensing to monitor the health of valves and use Artificial Intelligence (AI) to forecast failures and reduce unplanned shut-ins. Like all machines, failures in SSSV don't just appear. There are typically signs of degrading performance ahead of time. But given the sub-surface location of these valves, it is very hard to detect these signs. In a parallel application, in-well fiber monitoring systems are now deployed routinely for leak detection, flow characterization and many other applications. These fiber monitoring systems can be used to monitor the performance of the SSSV during function testing and establish a health condition of the valve. This paper will describe the process used to test the concept of monitoring a SSSV using fiber monitoring system first in the work shop. A number of different sized valves will be used. Failure conditions will then be simulated in the test valves and they will be again monitored during function testing in failed condition. This provides a base line to provide indication of SSSV health. The machine learning algorithm will then be trained with these example data. Various coupling methods will be also tested and a final design optimized. The model will then be taken to the field to be trialed in wells that have had fibers pre-installed. Each well will be monitored whilst the SSSV function test was carried out. The results will then be analyzed and a health assessment given. These results will be further fed in to the machine learning model to optimize algorithm. Over time this model will provide a more accurate forecasting of failure and allow better scheduling of workover operations. This is the first time that a fiber monitoring system has been used to monitor the health condition of a SSSV. This also represents an excellent integration of real time data collection and machine learning interpretation to better schedule workover operations and reduce unplanned shut ins. This safety valve surveillance kit is a strap-on solution for existing hydraulic valves already installed in any wells that have fiber monitoring systems.
    8

    Sonesson, Göran. "Rhetoric from the standpoint of the Lifeworld". In Le Groupe μ : quarante ans de rhétorique – trente-trois ans de sémiotique visuelle. Limoges: Université de Limoges, 2010. http://dx.doi.org/10.25965/as.3106.

    Testo completo
    Gli stili APA, Harvard, Vancouver, ISO e altri
    Abstract (sommario):
    La rhétorique du point de vue du monde de la vie La rhétorique de l’image dont parlait Barthes, reprise d’une manière beaucoup plus systématique dans les travaux du Groupe µ, n’est qu’une partie de la rhétorique classique, l’elocutio, mais c’est aussi celle qui a dominé dans l’Occident pendant ces derniers 500 ans. À l’extérieur de la sémiotique, cependant, le renouveau de la rhétorique à l’époque contemporaine tend à concevoir cette dernière comme la science qu’étudie la communication. Or, nous savons que la sémiotique a souvent été identifiée comme étant la science de la communication, et un autre candidat à ce titre est sans doute l’herméneutique. Alors que ces trois disciplines ont toutes trait au processus entier, elles le conçoivent dans une perspective chaque fois différente. La rhétorique prend le point de vue du créateur du message : il demande comment il faut s’exprimer pour obtenir l’adhérence de l’autre. L’herméneutique prend le point de vue du récepteur : sa question porte sur les moyens pour comprendre le message de l'autre. La sémiotique prend une position intermédiaire aux deux autres, c’est-à-dire au sein de la phase allant de l’artefact à sa concrétisation : elle demande quelles sont les ressources disponibles pour faire se produire le processus. À une telle rhétorique informée par la sémiotique la contribution du Groupe µ a été de toute première importance. Cependant, l’investigation des ressources disponibles, qui sont différentes dans le cas de l’image que dans celui de la langue, peut recevoir une base plus certaine en partant du monde de la vie, dans le sens de la phénoménologie, qui est aussi celui de l’écologie dans le sens de Gibson et le monde naturel tel que le comprend Greimas. Si l’on veut comprendre la manière dont la divergence est produite dans les images, il faut commencer par considérer ce qui est donné pour acquis, dans le sens à la fois de ce qui est normal, et de ce qui est normatif. Dans le monde de la vie, il y a certaines choses qui ont tendance à se présenter ensemble, en contiguïté ou comme des parties d’un tout (désormais, la factorialité). C’est la dimension indicielle. Mais le sens commun s'attend également à ce que les choses qui apparaissent ensemble soient suffisamment différentes pour pouvoir être distinguées, sans aller à l'extrême opposé de s’exclure mutuellement (une observation qui peut être entendue comme une généralisation de ce que le Groupe µ dit sur la norme de l’image, la homomatérialité et la hétéroformalité). En ce sens, il y a une rhétorique de trop de ressemblance ainsi que de trop de différence. Nous appellerons ceci la dimension iconique. Une troisième rhétorique prend son point de départ dans le caractère de signe de l'image. Nos attentes sont déçues tant en trouvant une trop grande partie de la réalité dans l'image qu’en rencontrant des niveaux supplémentaires de fiction au sein du contenu pictural. On peut appeler ceci la dimension symbolique. Enfin, les images remplissent des fonctions différentes dans une société donnée et sont, en raison de ce fait, imputables à diverses catégories, donnant ainsi lieu à une quatrième rhétorique dans laquelle nos attentes, en ce qui concerne les catégories sociales auxquelles les images sont assignées, ne sont pas remplies. On peut parler ici d’une dimension de catégorisation socioculturelle. Avant d’aborder les figures rhétoriques, ou ce qui en tient lieu, il est cependant nécessaire de discuter dans quelle mesure les ressources des images comprennent une part de dispositio, dans d’autres termes, une structure argumentative. Si nous définissons une affirmation comme étant une construction verbale, alors il est trivialement vrai que les images ne peuvent rien affirmer. Toutefois, si nous définissons une affirmation plus simplement comme une opération, au moyen de laquelle une propriété particulière est assignée à une entité particulière, alors il est possible pour l'image de faire des affirmations à la façon des images. Or, même ceci peut sembler impossible, s’il est vrai que les images, comme on l’a souvent dit, ne font que reproduire le monde de notre expérience. Au contraire, il faut admettre que les images peuvent se servir des arguments qui, dans le sens de Perelman, s’appuient sur la structure de la réalité ou servent à changer cette structure-là. Il s’ensuit que les transformations homogènes, contrairement à ce que suggère le Groupe µ, font aussi partie de la rhétorique, mais de la rhétorique de la dispositio. Considérée comme l’une des transformations possibles à partir du monde de la vie, la première dimension de la rhétorique correspond plus directement à la rhétorique telle qu’elle a été conçue par le Groupe µ, mais en retournant aux fondements jetés par la sémiotique phénoménologique proposée dans Pictorial concepts (1989). Contrairement au Groupe µ, nous proposons de distinguer les transformations portant sur la factorialité (la relation des parties au tout) et celles concernant la contiguïté. C’est « l’objet indépendant », dans le sens de James Gibson, qui fait la différence entre la contiguïté et la factorialité : il s’agit d’un degré d’intégration plus ou moins poussée. En fait, il y a sans doute des cas intermédiaires entre l’objet indépendant avec ses parties et la constellation arbitraire, mais ces cas-là sont aussi qualitativement vécus : le jeu, la série, l’ensemble. La rhétorique, de ce point de vue, relève de la méréologie, la science des parties et du tout, formalisée par Lesniewski en tirant son inspiration de Husserl et de Twardowski. Notre deuxième observation concerne la nature de l’opération nous faisant passer du monde de la vie à l’image. Dans la majorité de cas, l’opération rhétorique, pour fonctionner, à besoin non pas d’une absence de ce qui est attendu ou de la présence de quelque chose qui n’est pas attendu, mais des deux à la fois. Rares sont les cas (surtout s’agissant de la contiguïté) où une simple absence peut créer un effet de rhétorique. Dans les termes de la rhétorique générale d’abord conçue par le Groupe µ, la substitution est une opération rhétorique plus sûre que l’addition ou la suppression. D’autre part, dans le cas de la factorialité, l’effet est tellement différent selon les relations entre le tout et les parties qu’il faut spécifier la nature du rapport de la partie au tout. Il faut surtout distinguer le cas où quelque chose est ajouté à un tout qui est déjà en soi un objet indépendant, et le cas où les parties font partie d’un autre objet indépendant que le tout qui est perçu. Nos attentes peuvent être déçues par d’autres opérations que l’absence ou la présence d’un élément. Il peut y avoir une contradiction entre l’élément attendu et l’élément réellement présent. C’est la dimension iconique de la rhétorique. Les images, il est vrai, ne peuvent pas présenter des contradictions proprement dites, mais elles peuvent comporter toute sorte de manifestations d’une ressemblance ou d’une différence plus grande que ce que l’on a anticipé. Cet effet est présent dans plusieurs exemples considérés par le Groupe µ, sans que la spécificité de l’opération soit prise en compte. S’agissant d’un signe, en l’occurrence d’une image, il y a toujours un risque de confusion entre le signe et ce qui est signifié, et il est possible d’en tirer une rhétorique. À un extrême, le signe peut incorporer des objets réels ; à l’autre extrême, il peut contenir d’autres signes, notamment d’autres images, comme c’est le cas avec les images représentant d’autres images. Il s’agit donc de la dimension symbolique de la rhétorique. Finalement, la catégorisation des signes, dans ce cas les images, peut donner lieu à une rhétorique plus clairement socioculturelle. Les images peuvent être catégorisées en tenant compte de leur manière de construction, de la fonction qu’elles sont censées remplir dans la société, ou de leur manière de circuler à l’intérieur de la société. Les attentes qui peuvent être déçues dans ces cas ne concernent pas seulement l’appartenance de certaines images à des catégories particulières, mais surtout la combinaison de certaines catégories de construction avec certaines catégories de fonction et certaines catégories de circulation. Toute l’aventure du modernisme dans l’art plastique peut être conçue comme un vaste geste rhétorique à partir de la notion d’art à la fin du 18e siècle : une peinture à l’huile (construction) circulant dans des salons, des galeries et des musées (circulation) ayant pour but de produire un effet de plaisir esthétique (fonction). Dans le présent texte, j'ai suggéré que, contrairement aux signes verbaux, les images sont immédiatement rhétoriques, parce qu'elles nous offrent en même temps leur similitude et leur différence par rapport au monde de la perception. Par conséquent, j'ai fait observer que la rhétorique des images doit être fondée sur les structures de perception telles qu’elles apparaissent au sens commun, surdéterminées par le monde de la vie socioculturel spécifique. La dimension primaire de la rhétorique de l’image, l’indexicalité, dérive sa signification d'un écart par rapport à l'intégration relative des voisinages, des objets indépendants et des totalités de niveaux supérieurs. Elle peut concerner la contiguïté ou la factorialité, mais elle suppose d'habitude à la fois la présence de quelque chose d’inattendu et l'absence de quelque chose de prévu. L’iconicité, qui détermine la deuxième dimension, est fondée sur l'expectative d'une différenciation relative des objets du monde, qui ne suppose pas trop de similitude, ni trop de dissimilitude. La troisième dimension dépend du caractère fictif de l’image comme signe, dont les niveaux peuvent être confondus soit par une expérience trop directe, soit par des degrés de fiction trop nombreux. Finalement, la quatrième dimension concerne l'image en tant qu’objet social, faisant partie de certaines catégories de construction, de circulation, et de fonction. L'avantage de cette conception, par rapport au modèle de Groupe µ auquel il est endetté, consiste en son attention plus proche aux structures de la perception du sens commun.
    9

    Lall, Pradeep, Hyesoo Jang, Curtis Hill e Libby Creel. "Reliability of Flexible Wearable Band With Printed Sensors for Vital Sign Acquisition". In ASME 2020 International Technical Conference and Exhibition on Packaging and Integration of Electronic and Photonic Microsystems. American Society of Mechanical Engineers, 2020. http://dx.doi.org/10.1115/ipack2020-2644.

    Testo completo
    Gli stili APA, Harvard, Vancouver, ISO e altri
    Abstract (sommario):
    Abstract Wearable electronics need a number of desirable attributes, such as being compact, flexible, and lightweight. Prior studies on reliability testing have examined the relationship between a flexible electronic and repetitive human body motions (i.e., stretching, bending, twisting, and folding). Such mechanical loads can cause fatigue failure in a wearable electronic. In regard to a wearable band, fatigue failure can be influenced by folding stress. This research study involved the assessment of wearable biometric bands that were calibrated and examined by a test device for folding reliability. The wearable band combines a biometric sensor unit, a micro-controller unit with a wireless connection, and a printed thermistor unit. The sensors have been calibrated by actual temperature and biometric signals. Furthermore, the folding test was conducted utilizing multiple boards. Due to multiple components and printed lines of the PCB, optical images were taken in order to confirm which parts failed and the reasons for the failures. An FEM analysis was conducted in order to understand how stress impacts the PCB and which parts are stressed during the folding process. Throughout the process, an equation was developed to predict the number of cycles necessary for reaching fatigue failure. Throughout this study, the fatigue failure analysis on folding reliability of the wearable biometric band was conducted using experimental analysis, microscopy analysis, and simulating analysis. The study provided further knowledge about the fatigue failure mechanism, which resulted from the prediction of fatigue life developed from the PCB.
    10

    Rimbert, Victoria. "« De Prudentia et Castitate ». Exemples de stratégies d’évitement du harcèlement sexuel dans les nouvelles italiennes de la Renaissance". In Webinaire AVISA (Historiciser le harcèlement sexuel). MSH Paris-Saclay Éditions, Université Paris-Saclay, 2023. http://dx.doi.org/10.52983/hzvf8160.

    Testo completo
    Gli stili APA, Harvard, Vancouver, ISO e altri
    Abstract (sommario):
    Cet article analyse, en se basant sur un échantillon de neuf nouvelles de la Renaissance, la présence du harcèlement sexuel et sexiste dans la novellistica italienne. Il s'agit de définir les profils des victimes et des coupables, les stratégies des uns et les réactions des autres pour se défendre d'un phénomène récurrent dans ce type de littérature, et destiné à susciter, selon le ton employé, une gamme variée d'émotions chez le lecteur. En effet, l'article montre que les stratégies de défense face au harcèlement dépendent du statut matrimonial de la victime et de son entourage proche, allant du comique au tragique. Les risques encourus par la femme harcelée – calomnie, déshonneur, coups d'un mari jaloux, viol – entraînent des réactions souvent également violentes, par les armes ou par la ruse, afin de faire cesser définitivement la situation dangereuse. La femme prend fréquemment une part active à sa propre défense, aboutissant parfois à la suppression pure et simple du harceleur, signe d'une certaine conscience de la part des auteurs des enjeux du harcèlement sexuel, du système de domination qu'il incarne et de la menace concrète qu'il représente pour les femmes, quels que soient leur classe sociale et leur statut matrimonial.

    Rapporti di organizzazioni sul tema "Signe faible":

    1

    Corlin Christensen, Rasmus, Martin Hearson e Tovony Randriamanalina. Une tablée plus grande, mais toujours le même menu ? Evaluer l’inclusion des pays en développement dans les négociations fiscales mondiales. Institute of Development Studies, dicembre 2020. http://dx.doi.org/10.19088/ictd.2020.006.

    Testo completo
    Gli stili APA, Harvard, Vancouver, ISO e altri
    Abstract (sommario):
    Depuis 2013, la structure officielle de l’organe de décision sur les politiques fiscales mondiales au niveau de l’OCDE a changé. Les décisions ne sont plus prises par les 37 membres de l’OCDE, mais par 137 pays représentant toutes les régions du monde et tous les niveaux de développement à travers le ‘cadre inclusif’. Les documents officiels insistent sur le fait que tous les pays participent sur un pied d’égalité, mais certains participants et observateurs ont souligné que les pays en développement se heurtent à des obstacles d’ordre pratique qui engendrent, dans les faits, une participation inégale. Dans cette publication, nous évaluons ces déclarations principalement à partir de 48 interviews menées avec des négociateurs, des décideurs politiques et autres acteurs impliqués dans les discussions mondiales sur la fiscalité. Nous observons que l’explosion du nombre des adhésions formelles des pays en développement n’a pas suscité un changement radical sur l’influence des ces derniers. Ce que les chiffres bruts laissaient présager. Nous observons que l’explosion du nombre d’adhésions formelles n’a pas suscité le changement radical dans l’influence des pays en développement que les chiffres bruts laissaient présager. Cela s’explique par une combinaison d’obstacles structurels non spécifiques au cadre inclusif et d’aspects problématiques dans le mode de fonctionnement de l’OCDE. À ce jour, les pays à faible revenu ont tout de même obtenu quelques modestes résultats et on observe les signes d’un acheminement progressif vers une présence plus efficiente. Nous développons une typologie de mécanismes ayant engendré des résultats positifs : l’association avec les efforts des États plus puissants, l’anticipation des besoins des pays à faible revenu par le secrétariat de l’OCDE et par d’autres entités, la collaboration pour former des coalitions plus puissantes, et l’émergence de négociateurs experts ayant une autorité individuelle.
    2

    Laroche, Hervé, e Véronique Steyer. L’apport des théories du sensemaking à la compréhension des risques et des crises. Fondation pour une culture de sécurité industrielle, ottobre 2012. http://dx.doi.org/10.57071/208snv.

    Testo completo
    Gli stili APA, Harvard, Vancouver, ISO e altri
    Abstract (sommario):
    Les théories du sensemaking, ou fabrication de sens, analysent la manière dont ceux qui participent à une action, et qui sont confrontés à une interruption, répondent à deux questions: Que se passe-t-il? Que faut-il faire maintenant? Les personnes plongées dans l’action ont souvent des difficultés à rester au contact du monde, et cette faillite de la fabrication du sens peut avoir des conséquences dramatiques. En s’appuyant sur de nombreuses études de cas, les auteurs présentent les fondements de la théorie du sensemaking — due au célèbre psychosociologue américain Karl Weick — et ses principaux apports. Le document s’intéresse aux différents facteurs et éléments influençant la capacité des participants à une action à rester en «contact» avec ce qu’il se passe dans «le monde». Notamment, il examine les difficultés à détecter des signes de dégradations de la sécurité, à signaler des anomalies, à adapter son action et à improviser de façon appropriée face à des situations imprévues. Il souligne notamment l’importance de la qualité des interactions entre membres d’un collectif de travail, à adapter les processus de décision pour que expertise et expérience priment sur hiérarchie (et permettre que les décisions à fort impact soient prises par les personnes disposant de la meilleure connaissance de la situation), ainsi que la manière dont le cadre et la culture organisationnels peuvent faciliter ou entraver la fabrication d’un sens menant à une action adaptée. Les facteurs pouvant influer sur le sensemaking sont analysés selon quatre axes: les facteurs individuels, les caractéristiques de la situation de travail, les facteurs liés au collectif de travail, et l’impact des processus d’organisation. En fin de document, cinq principes d’organisation visant à contrer les différents phénomènes négatifs liés à la perte de sens face à une situation risquée sont exposés.
    3

    Dufour, Quentin, David Pontille e Didier Torny. Contracter à l’heure de la publication en accès ouvert. Une analyse systématique des accords transformants. Ministère de l'enseignement supérieur et de la recherche, aprile 2021. http://dx.doi.org/10.52949/2.

    Testo completo
    Gli stili APA, Harvard, Vancouver, ISO e altri
    Abstract (sommario):
    Cette étude porte sur une des innovations contemporaines liées à l’économie de la publication scientifique : les accords dits transformants, un objet relativement circonscrit au sein des relations entre consortiums de bibliothèques et éditeurs scientifiques, et temporellement situé entre 2015 et 2020. Ce type d’accords a pour objectif affiché d’organiser la transition du modèle traditionnel de l’abonnement à des revues (souvent proposées par regroupements thématiques ou collections) vers celui de l’accès ouvert en opérant une réaffectation des budgets qui y sont consacrés. Notre travail d’analyse sociologique constitue une première étude systématique de cet objet, fondée sur la recension de 197 accords. Le corpus ainsi constitué inclut des accords caractérisés par la coprésence d’une composante d’abonnement et d’une composante de publication en accès ouvert, même minimale (« jetons » de publication offerts, réduction sur les APC...). En conséquence, ont été exclus de l’analyse les accords portant uniquement sur du financement centralisé de publication en accès ouvert, que ce soit avec des éditeurs ne proposant que des revues avec paiement par l’auteur (PLOS, Frontiers, MDPI...) ou des éditeurs dont une partie du catalogue est constitué de revues en accès ouvert. L’accord le plus ancien de notre corpus a été signé en 2010, les plus récents en 2020 – les accords ne commençant qu’en 2021, même annoncés au cours de l’étude, n’ont pas été retenus. Plusieurs résultats se dégagent de notre analyse. Tout d’abord, on note une grande diversité des acteurs impliqués avec 22 pays et 39 éditeurs, même si certains consortiums (Pays-Bas, Suède, Autriche, Allemagne) et éditeurs (CUP, Elsevier, RSC, Springer) en ont signé beaucoup plus que d’autres. Ensuite, la durée des accords, comprise entre une et six années, révèle une distribution très inégalitaire, avec plus de la moitié des accords (103) signés pour 3 ans, ainsi qu’une faible proportion pour 4 ans ou plus (22 accords). Enfin, en dépit d’appels répétés à la transparence, moins de la moitié des accords (96) ont un texte accessible au moment de cette étude, sans qu’on puisse observer une tendance récente à une plus grande disponibilité. L’analyse montre également des degrés d’ouverture très variables, allant d’une simple information sur le répertoire ESAC en passant par la mise à disposition d’un format annotable jusqu’à l’attribution d’un DOI et d’une licence de réutilisation (CC-BY), en incluant le détail des sommes monétaires. Parmi les 96 accords disponibles, dont 47 signés en 2020, 62 ont fait l’objet d’une analyse en profondeur. C’est à notre connaissance la première analyse à cette échelle, sur un type de matériel non seulement inédit, mais qui était auparavant soumis à des clauses de confidentialité. Fondée sur une lecture minutieuse, l’étude décrit de manière fine leurs propriétés, depuis la matérialité du document jusqu’aux formules financières, en passant par leur morphologie et l’ensemble des droits et devoirs des parties. Les contenus des accords sont donc analysés comme une collection dont nous cherchons à déterminer les points communs et les variations, à travers des codages explicites sur certaines de leurs caractéristiques. L’étude pointe également des incertitudes, et notamment leur caractère « transitionnel », qui demeure fortement discuté. D’un point de vue morphologique, les accords montrent une grande diversité en matière de taille (de 7 à 488 pages) et de structure. Néanmoins, par définition, ils articulent tous deux objets essentiels : d’une part, les conditions de réalisation d’une lecture d’articles de revues, sous forme d’abonnement, mêlant des préoccupations d’accès et de sécurité ; d’autre part, les modalités de publication en accès ouvert, articulant la gestion d’un nouveau type de workflow à toute une série d’options possibles. Parmi ces options, mentionnons notamment le périmètre des revues considérées (hybrides et/ou accès ouvert), les licences disponibles, le degré d’obligation de cette publication, les auteurs éligibles ou le volume d’articles publiables. L’un des résultats les plus importants de cette analyse approfondie est la mise au jour d’un découplage presque complet, au sein même des accords, entre l’objet abonnement et l’objet publication. Bien entendu, l’abonnement est systématiquement configuré dans un monde fermé, soumis à paiement qui déclenche des séries d’identification des circulations légitimes tant du contenu informationnel que des usagers. Il insiste notamment sur les interdictions de réutilisation ou même de copie des articles scientifiques. À l’opposé, la publication en accès ouvert est attachée à un monde régi par l’accès gratuit au contenu, ce qui induit des préoccupations de gestion du workflow et des modalités d’accessibilité. De plus, les différents éléments constitutifs de ces objets contractuels ne sont pas couplés : d’un côté, les lecteurs sont constitués de l’ensemble des membres des institutions abonnées, de l’autre, seuls les auteurs correspondants (« corresponding authors ») sont concernés ; les listes de revues accessibles à la lecture et celles réservées à la publication en accès ouvert sont le plus souvent distinctes ; les workflows ont des objectifs et des organisations matérielles totalement différentes, etc. L’articulation entre les deux objets contractuels relève uniquement d’une formule de distribution financière qui, outre des combinaisons particulières entre l’un et l’autre, permet d’attribuer des étiquettes distinctes aux accords (offset agreement, publish & read, read & publish, read & free articles, read & discount). Au-delà de cette distribution, l’étude des arrangements financiers montre une gamme de dispositions allant d’une prévisibilité budgétaire totale, donc identique aux accords d’abonnement antérieurs, à une incertitude sur le volume de publication ou sur le montant définitif des sommes échangées. Les modalités concrètes de calcul des montants associés à la publication en accès ouvert sont relativement variées. S’il existe effectivement des formules récurrentes (volume d’articles multiplié par un prix individuel, reprise de la moyenne des sommes totales d’APC des années précédentes...), le calcul des sommes en jeu est toujours le résultat d’une négociation singulière entre un consortium et un éditeur scientifique, et aboutit parfois à des formules originales et complexes. À ce titre, l’espace des possibles en matière de formules financières n’est jamais totalement clos. Par ailleurs, la volonté des consortiums d’opérer une « transformation » de leurs accords vers la publication à coût constant renvoie à des définitions diversifiées du « coût » (inclusion ou non des dépenses d’APC préexistantes) et de la constance (admission ou pas d’une « inflation » à 2 ou 3%). De plus, nous n’avons observé aucune disposition contractuelle permettant d’anticiper les sommes en jeu au-delà de l’horizon temporel de l’accord courant. La grande diversité des accords provient d’une part des conditions initiales des relations entre consortiums et éditeurs scientifiques – les sommes dépensées en abonnement étant le point de départ des nouveaux accords –, d’autre part des objectifs de chaque partie. Même si cette étude excluait volontairement les négociations, les accords portent des traces de ces objectifs. Ainsi, de nombreux accords sont de nature explicitement expérimentale, quand certains visent un contrôle budgétaire strict, ou d’autres ambitionnent, dans la période plus récente, la publication du plus grand nombre possible d’articles en accès ouvert. C’est dans ce dernier cas qu’on touche à l’ambiguïté des attentes générales sur les accords transformants. En effet, pour les consortiums, la dimension « transformante » consiste essentiellement à transférer les sommes traditionnellement allouées à l’abonnement vers la publication en accès ouvert. Mais l’objectif n’est jamais de transformer le modèle économique des revues, c'est-à-dire de faire basculer des revues sous abonnement ou hybrides en revues entièrement en accès ouvert. D’ailleurs, aucune clause ne vise une telle fin – à l’exception du modèle d’accord proposé par l’éditeur ACM. Du côté des éditeurs, et notamment de Springer, le caractère cumulatif des accords nationaux passés vise à projeter un monde de la publication où l’accès ouvert devient de fait quantitativement très dominant, sans pour autant modifier de manière pérenne le modèle économique de leurs revues. Notre étude montre que les accords transformants actuels ne permettent pas d’assurer de manière durable une transition de l’économie de la publication vers l’accès ouvert, dans la mesure où ils n’offrent pas de garantie sur le contrôle des dépenses ni sur la pérennité de l’ouverture des contenus. L’avenir des relations entre consortium et éditeur demeure largement indéterminé.Cette étude porte sur une des innovations contemporaines liées à l’économie de la publication scientifique : les accords dits transformants, un objet relativement circonscrit au sein des relations entre consortiums de bibliothèques et éditeurs scientifiques, et temporellement situé entre 2015 et 2020. Ce type d’accords a pour objectif affiché d’organiser la transition du modèle traditionnel de l’abonnement à des revues (souvent proposées par regroupements thématiques ou collections) vers celui de l’accès ouvert en opérant une réaffectation des budgets qui y sont consacrés. Notre travail d’analyse sociologique constitue une première étude systématique de cet objet, fondée sur la recension de 197 accords. Le corpus ainsi constitué inclut des accords caractérisés par la coprésence d’une composante d’abonnement et d’une composante de publication en accès ouvert, même minimale (« jetons » de publication offerts, réduction sur les APC...). En conséquence, ont été exclus de l’analyse les accords portant uniquement sur du financement centralisé de publication en accès ouvert, que ce soit avec des éditeurs ne proposant que des revues avec paiement par l’auteur (PLOS, Frontiers, MDPI...) ou des éditeurs dont une partie du catalogue est constitué de revues en accès ouvert. L’accord le plus ancien de notre corpus a été signé en 2010, les plus récents en 2020 – les accords ne commençant qu’en 2021, même annoncés au cours de l’étude, n’ont pas été retenus. Plusieurs résultats se dégagent de notre analyse. Tout d’abord, on note une grande diversité des acteurs impliqués avec 22 pays et 39 éditeurs, même si certains consortiums (Pays-Bas, Suède, Autriche, Allemagne) et éditeurs (CUP, Elsevier, RSC, Springer) en ont signé beaucoup plus que d’autres. Ensuite, la durée des accords, comprise entre une et six années, révèle une distribution très inégalitaire, avec plus de la moitié des accords (103) signés pour 3 ans, ainsi qu’une faible proportion pour 4 ans ou plus (22 accords). Enfin, en dépit d’appels répétés à la transparence, moins de la moitié des accords (96) ont un texte accessible au moment de cette étude, sans qu’on puisse observer une tendance récente à une plus grande disponibilité. L’analyse montre également des degrés d’ouverture très variables, allant d’une simple information sur le répertoire ESAC en passant par la mise à disposition d’un format annotable jusqu’à l’attribution d’un DOI et d’une licence de réutilisation (CC-BY), en incluant le détail des sommes monétaires. Parmi les 96 accords disponibles, dont 47 signés en 2020, 62 ont fait l’objet d’une analyse en profondeur. C’est à notre connaissance la première analyse à cette échelle, sur un type de matériel non seulement inédit, mais qui était auparavant soumis à des clauses de confidentialité. Fondée sur une lecture minutieuse, l’étude décrit de manière fine leurs propriétés, depuis la matérialité du document jusqu’aux formules financières, en passant par leur morphologie et l’ensemble des droits et devoirs des parties. Les contenus des accords sont donc analysés comme une collection dont nous cherchons à déterminer les points communs et les variations, à travers des codages explicites sur certaines de leurs caractéristiques. L’étude pointe également des incertitudes, et notamment leur caractère « transitionnel », qui demeure fortement discuté. D’un point de vue morphologique, les accords montrent une grande diversité en matière de taille (de 7 à 488 pages) et de structure. Néanmoins, par définition, ils articulent tous deux objets essentiels : d’une part, les conditions de réalisation d’une lecture d’articles de revues, sous forme d’abonnement, mêlant des préoccupations d’accès et de sécurité ; d’autre part, les modalités de publication en accès ouvert, articulant la gestion d’un nouveau type de workflow à toute une série d’options possibles. Parmi ces options, mentionnons notamment le périmètre des revues considérées (hybrides et/ou accès ouvert), les licences disponibles, le degré d’obligation de cette publication, les auteurs éligibles ou le volume d’articles publiables. L’un des résultats les plus importants de cette analyse approfondie est la mise au jour d’un découplage presque complet, au sein même des accords, entre l’objet abonnement et l’objet publication. Bien entendu, l’abonnement est systématiquement configuré dans un monde fermé, soumis à paiement qui déclenche des séries d’identification des circulations légitimes tant du contenu informationnel que des usagers. Il insiste notamment sur les interdictions de réutilisation ou même de copie des articles scientifiques. À l’opposé, la publication en accès ouvert est attachée à un monde régi par l’accès gratuit au contenu, ce qui induit des préoccupations de gestion du workflow et des modalités d’accessibilité. De plus, les différents éléments constitutifs de ces objets contractuels ne sont pas couplés : d’un côté, les lecteurs sont constitués de l’ensemble des membres des institutions abonnées, de l’autre, seuls les auteurs correspondants (« corresponding authors ») sont concernés ; les listes de revues accessibles à la lecture et celles réservées à la publication en accès ouvert sont le plus souvent distinctes ; les workflows ont des objectifs et des organisations matérielles totalement différentes, etc. L’articulation entre les deux objets contractuels relève uniquement d’une formule de distribution financière qui, outre des combinaisons particulières entre l’un et l’autre, permet d’attribuer des étiquettes distinctes aux accords (offset agreement, publish & read, read & publish, read & free articles, read & discount). Au-delà de cette distribution, l’étude des arrangements financiers montre une gamme de dispositions allant d’une prévisibilité budgétaire totale, donc identique aux accords d’abonnement antérieurs, à une incertitude sur le volume de publication ou sur le montant définitif des sommes échangées. Les modalités concrètes de calcul des montants associés à la publication en accès ouvert sont relativement variées. S’il existe effectivement des formules récurrentes (volume d’articles multiplié par un prix individuel, reprise de la moyenne des sommes totales d’APC des années précédentes...), le calcul des sommes en jeu est toujours le résultat d’une négociation singulière entre un consortium et un éditeur scientifique, et aboutit parfois à des formules originales et complexes. À ce titre, l’espace des possibles en matière de formules financières n’est jamais totalement clos. Par ailleurs, la volonté des consortiums d’opérer une « transformation » de leurs accords vers la publication à coût constant renvoie à des définitions diversifiées du « coût » (inclusion ou non des dépenses d’APC préexistantes) et de la constance (admission ou pas d’une « inflation » à 2 ou 3%). De plus, nous n’avons observé aucune disposition contractuelle permettant d’anticiper les sommes en jeu au-delà de l’horizon temporel de l’accord courant. La grande diversité des accords provient d’une part des conditions initiales des relations entre consortiums et éditeurs scientifiques – les sommes dépensées en abonnement étant le point de départ des nouveaux accords –, d’autre part des objectifs de chaque partie. Même si cette étude excluait volontairement les négociations, les accords portent des traces de ces objectifs. Ainsi, de nombreux accords sont de nature explicitement expérimentale, quand certains visent un contrôle budgétaire strict, ou d’autres ambitionnent, dans la période plus récente, la publication du plus grand nombre possible d’articles en accès ouvert. C’est dans ce dernier cas qu’on touche à l’ambiguïté des attentes générales sur les accords transformants. En effet, pour les consortiums, la dimension « transformante » consiste essentiellement à transférer les sommes traditionnellement allouées à l’abonnement vers la publication en accès ouvert. Mais l’objectif n’est jamais de transformer le modèle économique des revues, c'est-à-dire de faire basculer des revues sous abonnement ou hybrides en revues entièrement en accès ouvert. D’ailleurs, aucune clause ne vise une telle fin – à l’exception du modèle d’accord proposé par l’éditeur ACM. Du côté des éditeurs, et notamment de Springer, le caractère cumulatif des accords nationaux passés vise à projeter un monde de la publication où l’accès ouvert devient de fait quantitativement très dominant, sans pour autant modifier de manière pérenne le modèle économique de leurs revues. Notre étude montre que les accords transformants actuels ne permettent pas d’assurer de manière durable une transition de l’économie de la publication vers l’accès ouvert, dans la mesure où ils n’offrent pas de garantie sur le contrôle des dépenses ni sur la pérennité de l’ouverture des contenus. L’avenir des relations entre consortium et éditeur demeure largement indéterminé.
    4

    Boyle, M., e Elizabeth Rico. Terrestrial vegetation monitoring at Fort Matanzas National Monument: 2019 data summary. National Park Service, maggio 2022. http://dx.doi.org/10.36967/nrds-2293409.

    Testo completo
    Gli stili APA, Harvard, Vancouver, ISO e altri
    Abstract (sommario):
    The Southeast Coast Network (SECN) conducts long-term terrestrial vegetation monitoring as part of the nationwide Inventory and Monitoring Program of the National Park Service (NPS). The vegetation community vital sign is one of the primary-tier resources identified by SECN park managers, and it is currently conducted at 15 network parks (DeVivo et al. 2008). Monitoring plants and their associated communities over time allows for targeted understanding of ecosystems within the SECN geography, which provides managers information about the degree of change within their parks’ natural vegetation. 2019 marks the first year of conducting this monitoring effort at four SECN parks, including Fort Matanzas National Monument (FOMA). Nine vegetation plots, located on Anastasia and Rattlesnake Islands, were established at Fort Matanzas National Monument in June. Data collected in each plot included species richness across multiple spatial scales, species-specific cover and constancy, species-specific woody stem seedling/sapling counts and adult tree (greater than 10 centimeters [3.9 inches {in}]) diameter at breast height (DBH), overall tree health, landform, soil, observed disturbance, and woody biomass (i.e., fuel load) estimates. This report summarizes the baseline (year 1) terrestrial vegetation data collected at Fort Matanzas National Monument in 2019. Data were stratified across two dominant broadly defined habitats within the park (Maritime Upland Forests/Shrublands and Maritime Open Uplands). Noteworthy findings include: Eighty-two vascular plant taxa (species or lower) were observed across nine vegetation plots, including eight species not previously documented within the park. The most frequently encountered species in each broadly defined habitat included: Maritime Upland Forests and Shrublands: saw palmetto (Serenoa repens), yaupon (Ilex vomitoria), southern/eastern red cedar (Juniperus silicicola + virginiana), American beautyberry (Callicarpa americana), and American burnweed (Erectites hieraciifolius). Maritime Open Uplands: sea oats (Uniola paniculata), earleaf greenbriar (Smilax auriculata), and dixie sandmat (Euphorbia bombensis). ne non-native species, Brazilian pepper (Schinus terebinthifolia), categorized as invasive by the Florida Exotic Pest Plant Council (FLEPPC 2019) was encountered in one Maritime Upland Forest and Shrubland plot during this monitoring effort. There were not any rare plants tracked by the Florida Department of Agriculture and Consumer Services (FDACS 2020) found during this monitoring effort. All plants located in these monitoring plots are fairly common throughout Florida, as well as across the Southeast Coast. Three species observed, however, are on the FDACS 2020 list of commercially exploited plants within the state. These include saw palmetto, cinnamon fern (Osmundastrum cinnamomeum), and coontie (Zamia integrifolia var. umbrosa). Southern/eastern red cedar and cabbage palmetto (Sabal palmetto) were the most dominant species within the tree stratum of the Maritime Upland Forest and Shrubland habitat type. Species that dominated the sapling and seedling strata of this type included yaupon and cabbage palmetto. More than 75% of the trees measured in the parks Maritime Upland Forest and Shrubland habitat type were alive and experiencing healthy vigor. Of the 22 trees that were dead, more than 50% of those were southern/eastern red cedar. Most of those individuals that were observed with moderate or severe decline and greater than 50% dieback were southern/eastern red cedars. Although red bay (Persea borbonia) was identified as one of the “principal understory tree” species within Fort Matanzas National Monument’s maritime forests in 2004 (Zomlefer et al. 2004), tree-sized individuals were rarely detected on plots during this monitoring effort. This may be in part due to the detection of laurel wilt disease within St. Johns County in 2006 (USDA 2021). Based on the low detection...

    Vai alla bibliografia