Segui questo link per vedere altri tipi di pubblicazioni sul tema: Détecteurs de temps.

Articoli di riviste sul tema "Détecteurs de temps"

Cita una fonte nei formati APA, MLA, Chicago, Harvard e in molti altri stili

Scegli il tipo di fonte:

Vedi i top-50 articoli di riviste per l'attività di ricerca sul tema "Détecteurs de temps".

Accanto a ogni fonte nell'elenco di riferimenti c'è un pulsante "Aggiungi alla bibliografia". Premilo e genereremo automaticamente la citazione bibliografica dell'opera scelta nello stile citazionale di cui hai bisogno: APA, MLA, Harvard, Chicago, Vancouver ecc.

Puoi anche scaricare il testo completo della pubblicazione scientifica nel formato .pdf e leggere online l'abstract (il sommario) dell'opera se è presente nei metadati.

Vedi gli articoli di riviste di molte aree scientifiche e compila una bibliografia corretta.

1

Alibart, Olivier, Virginia D’Auria, Grégory Sauder, Laurent Labonte e Sébastien Tanzilli. "Comprendre. Le comptage de photons corrélés en temps". Photoniques, n. 91 (maggio 2018): 38–42. http://dx.doi.org/10.1051/photon/20189138.

Testo completo
Abstract (sommario):
L’analyse des corrélations temporelles entre des photons se trouve au cœur des protocoles de traitement de l’information quantique (communication, métrologie et calcul) présentés dans ce dossier. Ces mesures de corrélation sont issues de techniques d’optique quantique fondamentale formalisées par R. Glauber en 1963 [Phys. Rev. 130, 2529] qui permettent de mesurer les propriétés des champs électromagnétiques et d’en détecter des régularités, des signatures dans un signal bruité. D’une façon plus générale, elles sont le résultat d’interférences d’ordre supérieur et sont, dans certains cas, directement reliées à la cohérence « classique » des champs optiques.
Gli stili APA, Harvard, Vancouver, ISO e altri
2

Rees, Erin E., Rachel Rodin e Nicholas H. Ogden. "Approche de surveillance de la population afin de détecter les nouveaux agrégats de cas de COVID-19 et y répondre". Relevé des maladies transmissibles au Canada 47, n. 56 (9 giugno 2021): 266–74. http://dx.doi.org/10.14745/ccdr.v47i56a01f.

Testo completo
Abstract (sommario):
Contexte : Pour maintenir le contrôle de l’épidémie de maladie à coronavirus 2019 (COVID-19) lorsque les mesures de confinement seront levées, il sera essentiel de renforcer les mesures de santé publique alternatives. En ce qui concerne la surveillance, il sera nécessaire de détecter rapidement une grande proportion de tous nouveaux cas afin de pouvoir les isoler, et retrouver et mettre en quarantaine les personnes qui y ont été exposées. Nous présentons ici une approche mathématique qui peut être utilisée pour déterminer combien d’échantillons doivent être recueillis par unité de surface et par unité de temps pour détecter de nouveaux agrégats de cas de COVID-19 à un stade suffisamment précoce pour contrôler une éclosion. Méthodes : Nous présentons une méthode de détermination de la taille de l’échantillon qui utilise une approche de pondération relative. Compte tenu du fait que les résultats du test de diagnostic de la COVID-19 provenant de sous-populations ont contribué à détecter la maladie à un niveau de prévalence seuil pour contrôler l’éclosion, il s’agissait de 1) déterminer si le nombre prévu d’échantillons hebdomadaires fournis par la surveillance actuelle des infections virales respiratoires fondée sur les soins de santé peut fournir une taille d’échantillon déjà adéquate pour détecter de nouveaux agrégats de cas de COVID-19 et, dans le cas contraire, 2) de déterminer combien d’échantillons hebdomadaires supplémentaires étaient nécessaires à partir d’un échantillonnage volontaire. Résultats : Lors d’une démonstration de notre méthode à une fréquence hebdomadaire et à l’échelle des provinces et territoires canadiens, nous avons constaté que seuls les provinces et les territoires les plus peuplés disposaient d’un nombre suffisant de dépistages provenant des visites médicales en raison de maladies respiratoires pour détecter la COVID-19 à notre niveau de prévalence cible — qui doit être suffisamment élevé pour identifier et contrôler les nouveaux agrégats de cas. En outre, la détection de la COVID-19 est plus efficace (moins d’échantillons requis) lorsque la surveillance se concentre sur l’exigence de tests de dépistage de patients symptomatiques par les services des soins de santé. Dans les populations volontaires : plus les taux de contact sont élevés, plus le niveau de prévalence attendu est élevé, et moins il faut d’échantillons pour détecter la COVID-19 à un seuil prédéterminé. Conclusion : Cette étude présente une stratégie de surveillance ciblée, combinant des échantillons de surveillance passive et active, afin de déterminer le nombre d’échantillons à recueillir par unité de surface et par unité de temps pour détecter de nouveaux agrégats de cas de COVID-19. L’objectif de cette stratégie est de permettre une détection suffisamment précoce pour contrôler une éclosion.
Gli stili APA, Harvard, Vancouver, ISO e altri
3

Domenech, P. "La décision, cette inconnue…". European Psychiatry 30, S2 (novembre 2015): S51. http://dx.doi.org/10.1016/j.eurpsy.2015.09.145.

Testo completo
Abstract (sommario):
Qu’avons nous appris de l’architecture fonctionnelle des processus de prise de décision dans le cerveau humain grâce aux neurosciences computationnelles ? Dans un premier temps, nous verrons comment les modèles de diffusion ont permis de proposer des algorithmes de décision capable d’expliquer les relations complexes entre proportion de choix et temps de décision observés lors de décision simple, et de faire des prédictions testables sur l’activité cérébrale des régions impliquées dans ces processus cognitifs. En prenant l’exemple de choix économiques simples, nous illustrerons l’intérêt de ce cadre mathématique pour comprendre comment différentes régions cérébrales peuvent interagir pour produire des décisions reflétant nos préférences subjectives. Finalement, nous discuterons autour d’un modèle mathématique capable de détecter les changements d’environnements pour interrompre les tâches en cours et déclencher des phases actives d’exploration afin d’illustrer la façon dont les modèles computationnels permettent de détecter des transitions brutales dans les stratégies comportementales et de prédire avec précision l’activité cérébrale dans le cortex préfrontal humain. Nous conclurons sur l’importance du cadre théorique de l’inférence Bayesienne et, en particulier, des notions de confiance et d’incertitude pour caractériser les algorithmes utilisés par le cerveau humain pour choisir.
Gli stili APA, Harvard, Vancouver, ISO e altri
4

Loye, Dominique. "Rendre le signe distinctif visible dans l'infrarouge thermique". Revue Internationale de la Croix-Rouge 79, n. 824 (aprile 1997): 212–16. http://dx.doi.org/10.1017/s0035336100059098.

Testo completo
Abstract (sommario):
Depuis de nombreuses années, les forces armées développent de nouveaux moyens d'observation afin d'augmenter leur capacité de mener le combat à toute heure et par tous les temps. Plusieurs forces armées se sont ainsi équipées de caméras à imagerie thermique (IR) qui permettent de reconnaître et de détecter des personnes et des objets non seulement de nuit, mais aussi de jour, même quand la visibilité est restreinte (comme, par exemple, à travers la fumée, le feuillage ou la pluie légère).
Gli stili APA, Harvard, Vancouver, ISO e altri
5

Schleihauf, Emily, Kirstin Crabtree, Carolyn Dohoo, Sarah Fleming, Heather McPeake e Matthew Bowes. "Aperçu - Surveillance simultanée des pratiques de prescription d’opioïdes et des décès liés à l’usage d’opioïdes : le contexte en Nouvelle-Écosse (Canada)". Promotion de la santé et prévention des maladies chroniques au Canada 38, n. 9 (settembre 2018): 378–83. http://dx.doi.org/10.24095/hpcdp.38.9.05f.

Testo completo
Abstract (sommario):
Une surveillance en santé publique en temps opportun est nécessaire pour comprendre les tendances associées à la consommation d’opioïdes et à ses méfaits connexes. Cet article met en correspondance les données sur la délivrance d’opioïdes recueillies par le Nova Scotia Prescription Monitoring Program et les données sur les décès compilées par le Service de médecin légiste de la Nouvelle-Écosse. La surveillance simultanée des tendances au moyen de ces sources de données est essentielle pour détecter les effets sur la population (qu’ils soient intentionnels ou non) des interventions liées à la prescription d’opioïdes.
Gli stili APA, Harvard, Vancouver, ISO e altri
6

L'Huillier, Amaury, Sylvain Castagnos e Anne Boyer. "Modéliser la diversité au cours du temps pour détecter le contexte dans un service de musique en ligne". Techniques et sciences informatiques 35, n. 4-5 (30 ottobre 2016): 397–433. http://dx.doi.org/10.3166/tsi.35.397-433.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
7

Pommet, S., P. G. Claret, J. E. de La Coussaye e X. Bobbia. "Échographie et prise en charge de l’arrêt cardiaque". Annales françaises de médecine d’urgence 8, n. 2 (aprile 2018): 113–19. http://dx.doi.org/10.3166/afmu-2018-0026.

Testo completo
Abstract (sommario):
L’arrêt cardiorespiratoire (ACR) est une situation fréquente pour les structures d’urgences et de réanimation, et l’utilisation de l’échographie y est recommandée par les sociétés savantes. Elle doit impérativement se faire sans augmentation des temps d’interruption du massage cardiaque externe. Après formation, elle permet de détecter rapidement et facilement la présence d’une contractilité myocardique qui est un élément pronostique important pouvant aider dans la décision d’arrêter la RCP. Le recours à des protocoles bien établis avec des équipes entraînées permet d’éviter une interruption prolongée de la RCP. Cependant, aucune étude humaine de grande ampleur n’a permis de décrire de manière fiable pendant l’ACR la sémiologie échographique des causes curables que constituent l’hypovolémie, l’embolie pulmonaire, la tamponnade et le pneumothorax compressif.
Gli stili APA, Harvard, Vancouver, ISO e altri
8

Petitpierre, Geneviève, e Juliane Dind. "Les habiletés olfactives des personnes polyhandicapées". Revue suisse de pédagogie spécialisée 13, n. 02 (6 giugno 2023): 45–51. http://dx.doi.org/10.57161/r2023-02-07.

Testo completo
Abstract (sommario):
L’olfaction est une modalité sensorielle cruciale sur le plan cognitif et affectif ainsi que pour la qualité de vie des êtres humains. Cependant, ce sens a longtemps été négligé dans le champ du polyhandicap. Trois études portant sur les habiletés olfactives de 20 à 22 enfants et jeunes polyhandicapés ont permis de mettre en évidence leurs capacités à détecter des odeurs, à manifester des réactions de plaisir ou de déplaisir en fonction de la nature plaisante ou non des odeurs, ainsi qu’à s’habituer à une odeur présentée de manière répétée et rapprochée dans le temps. Ces résultats permettent d’encourager les milieux accompagnant ces personnes à utiliser davantage les odeurs à des fins d’étayage affectif et d’apprentissage.
Gli stili APA, Harvard, Vancouver, ISO e altri
9

De Faviis, Giulia. "Liaison et conscience phonologique en Côte d’Ivoire : analyse des réponses épi- et métaphonologiques face à un test d’acceptabilité administré aux adultes abidjanais". SHS Web of Conferences 78 (2020): 10007. http://dx.doi.org/10.1051/shsconf/20207810007.

Testo completo
Abstract (sommario):
Par le biais d’un test d’acceptabilité phonologique on se propose d’étudier la perception subjective explicite qu’une population de 22 étudiants universitaires ivoiriens déclare avoir au sujet de la liaison, un phénomène complexe qui dépend de la combinaison de différents facteurs linguistiques et extralinguistiques. Dans un premier temps, on a demandé aux informateurs de détecter des incongruités lors de l’écoute d’un texte lu qui présentait des liaisons déviantes: cette tâche visait la sollicitation des réactions épiphonologiques; dans un deuxième temps, on leur a demandé de juger de l’acceptabilité des incongruités repérées et d’argumenter leurs réponses: cette tâche visait la sollicitation des réactions métaphonologiques. L’observation du corpus abidjanais et sa comparaison avec une enquête parisienne analogue (Celata, De Flaviis et Floquet, à paraître), vont nous permettre : de vérifier si les réactions épiphonologiques des locuteurs ivoiriens correspondent à la tripartition en liaisons catégoriques, variables et interdites telle que la montre le corpus PFC et d’observer s’il y a un effet de population ; de décrire la diversité des motivations sous-jacentes aux pratiques langagières du phénomène en Côte d’Ivoire; de considérer les appréciations naïves comme un outil informatif à intégrer aux connaissances actuelles sur la liaison découlant de la phonologie de corpus.
Gli stili APA, Harvard, Vancouver, ISO e altri
10

Poumarat, François, M. Perrin, P. Belli e J. L. Martel. "Corrélation entre l'excrétion des mycoplasmes et les cinétiques des anticorps mis en évidence par fixation du complément, hémagglutination passive et séroagglutination rapide, au cours d'une infection expérimentale de bovins par Mycoplasma mycoides subsp." Revue d’élevage et de médecine vétérinaire des pays tropicaux 42, n. 3 (1 marzo 1989): 357–64. http://dx.doi.org/10.19182/remvt.8784.

Testo completo
Abstract (sommario):
Dans un foyer expérimental de péripneumonie contagieuse bovine (PCB), 5 bovins infectés expérimentalement et 5 bovins infectés naturellement au contact des premiers ont fait l'objet d'un suivi hebdomadaire de l'excrétion de Mycoplasma mycoides subsp. mycoides SC et d'un suivi sérologique en fixation du complément (FC), en hémagglutination passive (HAP) et en séroagglutination rapide (SAG). Ces suivis ont été effectués sur 4 mois à compter de l'inoculation. Dans les cas d'évolution aiguë ou chronique avec lésions, aucune défaillance du dépistage en FC et en SAG excepté en phase prodromique n'a été constatée sur une période de 11 à 13 semaines après le début de l'excrétion. L'HAP semble pouvoir détecter précocement les infections débutantes, mais est insuffisante en phase chronique et ultime de la maladie. Dans les cas d'infection latente évoluant sans symptôme ni lésion malgré une excrétion prolongée dans le temps, des défaillances importantes du dépistage sont notées, cela quelle que soit la technique utilisée
Gli stili APA, Harvard, Vancouver, ISO e altri
11

Colijn, Caroline, David JD Earn, Jonathan Dushoff, Nicholas H. Ogden, Michael Li, Natalie Knox, Gary Van Domselaar, Kristyn Franklin, Gordon Jolly e Sarah P. Otto. "La nécessité d’une surveillance génomique liée du SRAS-CoV-2". Relevé des maladies transmissibles au Canada 48, n. 4 (6 aprile 2022): 147–55. http://dx.doi.org/10.14745/ccdr.v48i04a03f.

Testo completo
Abstract (sommario):
La surveillance génomique au cours de la pandémie de maladie à coronavirus 2019 (COVID-19) a été essentielle pour repérer en temps utile les variants du virus ayant des conséquences importantes pour la santé publique, telles que les variants qui peuvent se transmettre et provoquer une maladie grave chez les personnes vaccinées ou guéries. L’émergence rapide du variant Omicron a mis en évidence la rapidité avec laquelle l’étendue d’une menace doit être évaluée. Le séquençage rapide et l’ouverture des institutions de santé publique au partage international des données de séquençage offrent une occasion sans précédent de le faire. Toutefois, l’évaluation des propriétés épidémiologiques et cliniques de tout nouveau variant reste un défi. Nous mettons ici en évidence un « groupe de quatre » sources de données clés qui peuvent aider à détecter les variants viraux qui menacent la gestion de la COVID-19 : 1) des données génétiques (séquence du virus), 2) des données épidémiologiques et géographiques, 3) des données cliniques et démographiques, et 4) des données sur la vaccination. Nous soulignons les avantages qui peuvent être obtenus en reliant les données de ces sources et en combinant les données de ces sources avec les données de séquences virales. Les défis considérables que représente la mise à disposition des données génomiques et les coupler avec les caractéristiques des virus et des patients doivent être comparés aux conséquences majeures de ne pas le faire, notamment si de nouveaux variants préoccupants apparaissent et se propagent sans être détectés et traités à temps.
Gli stili APA, Harvard, Vancouver, ISO e altri
12

Dres, M., e A. Demoule. "Les systèmes automatisés de sevrage de la ventilation mécanique ont-ils une place en pratique clinique ?" Médecine Intensive Réanimation 27, n. 1 (gennaio 2018): 36–44. http://dx.doi.org/10.3166/s13546-017-1323-7.

Testo completo
Abstract (sommario):
Du fait de la stagnation de l’offre démographique médicale et du vieillissement de la population, les besoins en ventilation mécanique vont croître dans les années à venir. Dans ce contexte, la conduite du sevrage de la ventilation mécanique par des systèmes automatisés est une perspective séduisante, permettant d’épargner du temps médical et infirmier. La gestion du sevrage par des systèmes automatisés repose sur l’utilisation de l’intelligence artificielle incorporée au sein de ventilateurs capables de détecter précocement la sevrabilité des patients puis d’entreprendre le cas échéant une épreuve de ventilation spontanée. Deux systèmes répondant à ce cahier des charges sont actuellement commercialisés. Bien que les données disponibles soient peu nombreuses, celles-ci semblent justifier l’intérêt pour ces systèmes en montrant au pire une équivalence, au mieux une réduction dans la durée du sevrage, lorsqu’ils sont comparés à une démarche de sevrage conventionnelle. Les défis de demain seront de tester la généralisation de ces systèmes dans la pratique clinique et de définir les caractéristiques des populations susceptibles d’en bénéficier le plus.
Gli stili APA, Harvard, Vancouver, ISO e altri
13

Laflamme, G., e R. Blais. "Détection du Heterobasidion annosum au Québec". Phytoprotection 76, n. 1 (12 aprile 2005): 39–43. http://dx.doi.org/10.7202/706083ar.

Testo completo
Abstract (sommario):
Depuis 1955, le champignon Heterobasidion annosum, cause de la maladie du rond, n'était présent, dans l'est du Canada, que dans le sud de l'Ontario. En 1968, le champignon fut identifié plus au nord, près des frontières du Québec. À partir de 1983, un groupe de quatre plantations de pins rouges (Pinus resinosa) ayant déjà été éclaircies a fait l'objet d'un programme de surveillance, ce qui nous a permis de détecter le H. annosum dans la plantation de Mayo en 1989. Cette détection constitue la première mention de la présence du champignon au Québec. En 1993, on a observé la maladie dans une autre plantation du groupe, à Saint-Philippe-d'Argenteuil. Une troisième plantation infectée a aussi été trouvée près de Harrington en 1993, mais elle nefaisait pas partie du groupe sous surveillance. Elle aurait été infectée avant les autres, soit en 1977. La détection du H. annosum au Québec démontre l'urgence d'effectuer des traitements préventifs dans les plantations de pins rouges lors de l'éclaircie et d'éradiquer la maladie dans les trois plantations infectées pendantqu'il en est encore temps.
Gli stili APA, Harvard, Vancouver, ISO e altri
14

Virk, Sanjeet Kaur, April J. Stursma, Brian D. Fisher e Alexis Rodriguez. "Usurpation d’identité clinique : Carcinome spinocellulaire de la paupière diagnostiqué antérieurement comme une bosse oculaire". Canadian Journal of Optometry 81, n. 2 (30 maggio 2019): 62–68. http://dx.doi.org/10.15353/cjo.v81i2.1338.

Testo completo
Abstract (sommario):
Les tumeurs malignes de la paupière sont souvent difficiles à diagnostiquer à un stade précoce et peuvent poser un défi sur le plan clinique. En raison de la prévalence élevée des cancers de la peau périoculaire, les cliniciens doivent être très attentifs dans leur évaluation des lésions cutanées. Un homme de 83 ans sans aucun antécédent de tumeur maligne présentait une lésion non cicatrisante et en croissance rapide de la paupière inférieure gauche. Après une référence en oculoplastique, on a diagnostiqué chez le patient un carcinome spinocellulaire sans métastase ni invasion des tissus de la couche profonde. La prise en charge a nécessité une exentération orbitaire gauche, suivie d’une radiothérapie. Ce cas illustre l’évolution clinique et la nature invasive du carcinome spinocellulaire périoculaire. Bien que ce carcinome puisse se présenter sous diverses formes, la plupart sont des lésions hyperkératosiques indolores qui évoluent et deviennent progressivement ulcéreuses. Il est essentiel d’avoir des antécédents détaillés et de procéder à un examen clinique minutieux pour détecter la malignité en temps opportun.
Gli stili APA, Harvard, Vancouver, ISO e altri
15

Vyas, Sumant, G. N. Purohit, P. K. Pareek e M. S. Sahani. "Imagerie ultrasonographique pour le suivi du stade précoce de gestation chez le dromadaire (Camelus dromedarius)". Revue d’élevage et de médecine vétérinaire des pays tropicaux 55, n. 3 (1 marzo 2002): 241. http://dx.doi.org/10.19182/remvt.9829.

Testo completo
Abstract (sommario):
Six femelles dromadaires de race Bikaneri ont été saillies par des mâles reproducteurs lorsque des follicules de dimension égales ou supérieurs à 9 mm ont pu êtres observés par échographie. L’échographie en mode B et en temps réel a été utilisée pour détecter le très jeune embryon et assurer le suivi de son développement, de sa croissance et de ses caractéristiques anatomiques entre les 18e et 40e jours après la monte. La vésicule embryonnaire et l’embryon proprement dit à l’intérieur de la vésicule ont été visibles respectivement aux 18e et 23e jours après la monte. Les pulsations cardiaques de l’embryon lui-même ont pu être détectées au 30e jour. L’allantoïde et l’amnios ont été identifiés pour la première fois au 40e jour. La zone optique a également été identifiée pour la première fois au 40e jour après la monte. La méthode ultrasonographique peut permettre d’identifier l’état gravide ou non gravide des femelles dromadaires dès le 20e jour de gestation et les résultats obtenus par cette méthode sont connus dans l’instant même.
Gli stili APA, Harvard, Vancouver, ISO e altri
16

Diallo, Tidiane, e Et Al. "Identification et dosage du Deltaméthrine dans les moustiquaires imprégnées d’insecticide par la Chromatographie Liquide à Haute Performance au Laboratoire national de la santé à Bamako". Revue Malienne d'Infectiologie et de Microbiologie 16, n. 3 (12 gennaio 2022): 59–64. http://dx.doi.org/10.53597/remim.v16i3.2033.

Testo completo
Abstract (sommario):
Objectif : Contribuer au contrôle de qualité des moustiquaires imprégnées d’insecticides par la technique de la Chromatographie liquide à haute performance pour assurer leur efficacité dans la prévention du paludisme au Mali. Matériel et Méthodes : les échantillons étaient constitués de moustiquaires achetées ou obtenues gratuitement. L’échantillonnage a consisté à une coupure aléatoire de petits morceaux sur les cinq côtés de la moustiquaire puis une coupure d’un carré modèle de 10*10 cm. Au total quatre moustiquaires ont fait l’objet d’analyse. Le matériel utilisé pour l’analyse des moustiquaires était la Chromatographie liquide haute performance (HPLC) couplée à un Détecteur à Barrette de Diode. La méthode d’analyse était basée sur une extraction solide/liquide avec comme solvant d’extraction l’Acétone pendant une période de deux heures puis évaporer à sec l’extrait. L’extrait sec a été récupéré avec 1 mL d’Acétonitrile pour analyse. Résultats : Tous les échantillons étaient à base de polyester, sauf un qui était en polyéthylène et un poids variant entre 452,3 et 651,0 grammes. Les conditions chromatographiques utilisées ont permis d’identifier et doser la Deltaméthrine dans les échantillons de moustiquaires à un temps de rétention de 3,27 minutes. Les différentes gammes de concentrations étaient proportionnelles à la surface des pics obtenues. Un échantillon sur quatre était sous dosé donc non conforme. Conclusion : La méthode ainsi mise en place permettra le dosage de la Deltaméthrine dans les différents matériaux de moustiquaires afin d’assurer la surveillance de la qualité des moustiquaires au Mali.
Gli stili APA, Harvard, Vancouver, ISO e altri
17

Indjehagopian, Jean-Pierre, e Sandrine Macé. "Mesures d'impact de promotion des ventes : Description et comparaison de trois méthodes". Recherche et Applications en Marketing (French Edition) 9, n. 4 (dicembre 1994): 53–79. http://dx.doi.org/10.1177/076737019400900403.

Testo completo
Abstract (sommario):
Mesurer l'impact d'une promotion sur les ventes d'un produit et analyser l'effet au cours du temps est une tâche importante pour un responsable de produit. Cet article applique et compare trois approches statistiques pour mesurer l'impact de promotions (ou d'actions marketing) sur les ventes de deux produits. La première approche proposée par le logiciel FuturMaster consiste à estimer les ventes que l'on aurait dû observer s'il n'y avait pas eu de promotions à l'aide du modèle de lissage exponentiel de Holt-Winters. La seconde approche utilise une extension du modèle Holt-Winters permettant la prise en compte d'évènements marketing. A chaque type d'actions marketing, par exemple des promotions de type de réduction de prix, il est associé un indice de promotion. Cette approche est celle utilisée par le logiciel Forecast Pro XE. La troisième démarche consiste à modéliser la série des ventes, contaminées par des données atypiques provenant d'actions marketing, à partir de modèles ARIMA et des fonctions d'intervention. La procédure utilisée pour détecter et caractériser la nature des données atypiques est celle proposée par le logiciel SCA. Les données analysées portent sur des consommations mensuelles de jus d'orange et de biscuits apéritifs soumises à des actions promotionnelles.
Gli stili APA, Harvard, Vancouver, ISO e altri
18

Fradet, Clémence, Florian Lacroix, Gaëlle Berton, Stéphane Méo e Eric Le Bourhis. "Extraction des proprietes mecaniques locales d’un elastomere par nanoindentation : developpement des protocoles et application". Matériaux & Techniques 105, n. 1 (2017): 109. http://dx.doi.org/10.1051/mattech/2017013.

Testo completo
Abstract (sommario):
La réponse mécanique locale d’un fluoroélastomère est présentée au travers de résultats de nanoindentation. Les propriétés des élastomères présentent notamment une dépendance à la vitesse de sollicitation et sont ainsi impactées par les variables du protocole expérimental choisies, telles que la force maximale appliquée ou les vitesses de chargement. Cette caractéristique, intrinsèque à ce type de matériaux, est considérée avec soin dans le cadre d’essais à échelle globale et doit, au même titre, faire l’objet d’une attention particulière lors d’essais de nanoindentation. L’objectif de cette étude est d’appréhender l’impact de la dépendance au temps des élastomères lors de leur caractérisation en nanoindentation. In fine, les investigations doivent pouvoir mener à une méthodologie robuste capable de donner des mesures quantitatives des propriétés mécaniques locales d’élastomères de pièces réelles industrielles. Ce papier dresse donc une description de la technique de nanoindentation appliquée aux élastomères et discute les résultats qui apparaissent clairement dépendants de la manière dont les essais sont conduits. Enfin, les éléments apportés par cette prospection ont été appliqués à la caractérisation d’un composite multicouche caoutchouc/polymère. Cette étude applicative a prouvé l’aptitude de la nanoindentation à détecter des gradients de propriétés au sein du composite.
Gli stili APA, Harvard, Vancouver, ISO e altri
19

Laliberté, Jérôme, e Martin-Hugues St-Laurent. "Détermination des facteurs spatiotemporels expliquant le risque de collision routière avec des cervidés sur l’autoroute Claude-Béchard (85) au Témiscouata". Le Naturaliste canadien 143, n. 1 (28 novembre 2018): 40–47. http://dx.doi.org/10.7202/1054116ar.

Testo completo
Abstract (sommario):
Une stratégie efficace d’atténuation des collisions routières impliquant la faune requiert de bonnes connaissances des facteurs pouvant expliquer pourquoi, où et quand celles-ci se produisent, afin d’améliorer la sécurité routière. Les collisions routières impliquant des cervidés sont reconnues pour être influencées notamment par des caractéristiques temporelles (phase du jour, saison, période biologique) et spatiales (topographie, couvert forestier). Ces facteurs peuvent influencer le comportement des cervidés, la capacité des conducteurs à détecter les animaux sur la chaussée et leur temps de réaction. Nous avons évalué l’effet des différentes caractéristiques spatiotemporelles sur le risque de collisions avec l’orignal (Alces americanus) et le cerf de Virginie (Odocoileus virginianus) sur l’autoroute Claude-Béchard (axe routier 85/185) reliant Rivière-du-Loup (Québec) au Nouveau-Brunswick, pour la période de 1990 à 2015. Notre capacité à identifier les principaux facteurs expliquant la distribution spatiotemporelle des collisions différait entre les espèces, et était meilleure pour l’orignal que pour le cerf. Les facteurs identifiés dans notre étude peuvent contribuer au développement d’une stratégie d’atténuation pour l’autoroute Claude-Béchard et à limiter le risque de collision, principalement avec l’orignal, tout en apportant de plus amples connaissances sur la répartition des collisions routières avec les cervidés dans un paysage agroforestier habité supportant de fortes densités de cervidés.
Gli stili APA, Harvard, Vancouver, ISO e altri
20

RICORDEAU, G., J. BOUILLON, P. LE ROY, J. M. ELSEN e A. LAJOUS. "Déterminisme génétique du débit de lait au cours de la traite des chèvres". INRAE Productions Animales 3, n. 2 (3 febbraio 1990): 121–26. http://dx.doi.org/10.20870/productions-animales.1990.3.2.4366.

Testo completo
Abstract (sommario):
Le débit de lait au cours de la 1e minute de traite des chèvres varie de 0,3 à 2,4 kg. L’analyse des descendances des boucs à la Station de Moissac sur 8 campagnes (1585 lactations de 893 chèvres nées de 97 pères et 487 mères) a fait apparaître 3 catégories de pères, ce qui nous a conduit à envisager l’hypothèse d’un locus à effet majeur, avec 2 allèles en ségrégation, un allèle + , normal et partiellement dominant, et un allèle hd, récessif, responsable d’un haut débit de traite. Les différents tests utilisés montrent que cette hypothèse est vraisemblable et que le déterminisme génétique du débit est de type mixte. Le débit moyen des chèvres homozygotes hd/hd est supérieur de 84 % à celui des chèvres homozygotes +/+ (respectivement 1,48 vs 0,80 kg/min), celui des hétérozygotes hd/+ étant de 0,94 kg/min, ce qui correspond à une dominance de 0,61. La fréquence de l’allèle hd serait de 0,39 dans l’échantillon étudié, l’héritabilité résiduelle du débit étant de 0,48. La sélection des chèvres à haut débit est donc possible et souhaitable. Elle peut être réalisée, dans un premier temps, en limitant les mesures de débit aux « mères à boucs » (chèvres les mieux indexées), afin de détecter celles qui ont un débit supérieur à 1,46 kg/min (supposées toutes homozygotes hd/hd) et de produire rapidement des jeunes mâles susceptibles d’être homozygotes hd/hd.
Gli stili APA, Harvard, Vancouver, ISO e altri
21

COULMIN, J., C. TONDELIER, G. LEROY, N. RAMPNOUX, V. INGRAND, N. TALAZAC, S. LEFEBVRE, F. FUCHS e S. LUNA. "Une stratégie de prélèvements et d’analyses innovante pour caractériser le devenir des micropolluants dans le milieu naturel". Techniques Sciences Méthodes 6, n. 6 (21 giugno 2021): 73–86. http://dx.doi.org/10.36904/tsm/202106073.

Testo completo
Abstract (sommario):
Afin de mieux caractériser les micropolluants à l’échelle du territoire de Montpellier, Veolia et Montpellier Méditerranée Métropole se sont associés pour mettre en place une stratégie innovante de prélèvements et d’analyse. Cette étude avait un double objectif, d’une part d’identifier les micropolluants présents dans les eaux usées traitées en sortie de la station d’épuration (STEP) et dans le milieu marin à proximité de l’émissaire de rejet et, d’autre part, d’évaluer l’impact de l’agglomération sur la qualité du Lez en temps de pluie au travers d’échantillonnages en amont et en aval de l’agglomération. Pour cela, deux campagnes ont été réalisées en couplant deux outils de prélèvement intégratif, le Pocis et l’Octopus Organics, associés à des analyses de screening (recherche élargie de substances), l’empreinte chimique. Cette stratégie d’échantillonnage a montré tout son potentiel puisqu’elle conduit à détecter davantage de composés présents à l’état de trace, qui n’auraient peut-être pas été identifiés avec des prélèvements moyennés 24 heures. Lors de la campagne réalisée en temps de pluie sur le Lez, la comparaison des points situés en amont et en aval de l’agglomération montre une nette augmentation du nombre de composés et de leur intensité, ce qui suggère des concentrations plus importantes. Des rejets diffus (eau de ruissellement, rejets non contrôlés…) et le by-pass de la station d’épuration peuvent être à l’origine de la dégradation passagère de la qualité de la rivière. De nouveaux prélèvements à différents niveaux du bassin versant, entre le point Lez amont de cette étude jusqu’à l’aval de l’agglomération, en incluant le by-pass de la STEP, pourraient permettre d’identifier la contribution de chaque type de rejet. Concernant l’impact du rejet de la station d’épuration sur le milieu marin, malgré la présence de produits pharmaceutiques, produits de synthèse à usage courant (filtres anti-UV, parfums de synthèse, surfactants…) et quelques pesticides dans l’effluent de Maera, aucun marqueur de cet effluent n’a été retrouvé en mer. Toutefois, bien que réalisés à proximité de l’émissaire, les préleveurs ont été placés hors de la zone d’influence. Une étude plus approfondie, à l’intérieur du « panache », a été réalisée en 2020 afin de confirmer ces résultats.
Gli stili APA, Harvard, Vancouver, ISO e altri
22

Roussel, Isabelle. "Épisodes de pollution et dispositifs d’alerte en France : une vision historique et sociopolitique". Pollution atmosphérique, NS 8 (1 marzo 2015): 40–66. http://dx.doi.org/10.54563/pollution-atmospherique.7871.

Testo completo
Abstract (sommario):
La gestion des épisodes de forte pollution a ponctué l’histoire des politiques publiques liées à la pollution atmosphérique. Dans un premier temps, parce que la métrologie n’était pas assez fine pour détecter « le bruit de fond » puis, parce que la pollution industrielle, développée depuis le début de la révolution industrielle et au cours de la période de reconstruction qui a suivi la Seconde Guerre mondiale, a monopolisé l’attention des pouvoirs publics pratiquement jusqu’à l’arrivée de la loi sur l’air de 1996, à l’exception, toutefois, de nombreuses initiatives municipales. Cette loi marque un tournant considérable en braquant les projecteurs des médias sur ces épisodes fortement pollués, traités auparavant entre les services de l’État et les industriels. Cependant, cette nouvelle gestion des pics de pollution, souvent liés à l’automobile et à l’accumulation de polluants tels que le dioxyde d’azote et l’ozone, pas toujours correctement mesurés, pose de nombreuses questions. En particulier, en attirant l’attention sur les niveaux de pollution élevés ne risque-t-on pas de faire peur certains jours pour lesquels le risque sanitaire n’est pas avéré, au détriment d’une attention soutenue de la pollution de tous les jours ? Le développement des connaissances sur les méfaits sanitaires des particules a permis d’attirer l’attention de la population sur la nécessité de maîtriser ces polluants qui contribuent à l’effet de serre, accentuent le trouble atmosphérique, rendant ainsi perceptible la pollution et qui peuvent être suffisamment fins pour s’insinuer profondément dans différents organes et provoquer des nuisances à court, moyen et long terme.
Gli stili APA, Harvard, Vancouver, ISO e altri
23

Hoang, Kim Huong, Monique Bernier, Sophie Duchesne e Minh Y Tran. "Renforcement de la qualité d’information de l’occupation du sol par l’intégration de données satellitaires optiques et radar en support à la modélisation hydrologique". Revue des sciences de l’eau 31, n. 3 (10 dicembre 2018): 177–99. http://dx.doi.org/10.7202/1054302ar.

Testo completo
Abstract (sommario):
Afin de suivre l’évolution de l’occupation du sol du bassin versant de la rivière Cau (nord du Vietnam), des images HRVIR 2 du satellite SPOT-4 ont été acquises fin novembre 2007 et début janvier 2008. Dans un premier temps, l’approche de classification hiérarchique avec le mode de classification « avec caractéristiques liées aux classes (class-related features) » a été développée et appliquée afin d’extraire sept classes d’occupation du sol pertinentes à la modélisation hydrologique, sans distinguer les rizières des autres types de culture. Cette approche a montré son efficacité, la précision globale de la classification étant de 91 %. Une diminution significative de la confusion entre les milieux urbains, les terres agricoles et les plantations a été remarquée par rapport à une classification antérieure d’une image LANDSAT-7 de 2003, dont la précision globale était de 78 %. Par la suite, afin de distinguer les rizières des autres types de culture, deux séries d’images du satellite RADARSAT-2 en bande-C (double polarisation et polarimétriques) ont été utilisées. Ces images ont été acquises de mai 2009 à mai 2010 et couvrent deux périodes de croissance du riz, soit la période de la principale récolte (saison traditionnelle du riz) et celle du printemps. Pour les images double polarisation, en mode standard (S5), une méthode de seuillage a été appliquée sur la variation temporelle du signal entre les images acquises en début de saison et celles à la mi-saison. Cette méthode a permis de détecter 74 % des rizières de la saison traditionnelle du riz et 63 % des rizières de la saison de riz du printemps, selon une comparaison avec des données statistiques de la province de Thai Nguyen. La précision globale de la classification obtenue, pour toutes les classes d’occupation du sol, est de 71 % pour la saison traditionnelle de riz et de 67 % pour la saison de riz du printemps. Pour les images polarimétriques, en mode fin (FQ21), la matrice de cohérence a été choisie pour identifier les rizières d’une zone hétérogène. La classification a été réalisée à l’aide de l’algorithme SVM (Support Vector Machine). Ces dernières informations ont ensuite été intégrées à la carte thématique dérivée d’images SPOT-4 pour obtenir la carte finale. Cette carte sert directement à la modélisation hydrologique. Les calculs des besoins en eau pour la culture du riz ont montré que les rizières prennent une grande proportion du débit total dans les deux sous-bassins versants utilisés en exemple. Ces calculs montrent l’importance de détecter les rizières si l’on souhaite réaliser des simulations hydrologiques réalistes sur le bassin versant de la rivière Cau et confirment une des hypothèses de nos travaux, qui est que l’identification des rizières sur la carte d’occupation du sol améliore les évaluations et prédictions liées au cycle hydrologique.
Gli stili APA, Harvard, Vancouver, ISO e altri
24

CAGNARD, O., E. ALOCHE, F. NAKACHE-DANGLOT, A. DECAMPS, D. NEUZERET, O. GEFFARD, H. QUEAU, J. M. MONIER e O. SIBOURG. "Tests de capteurs biologiques pour l’évaluation de l’écotoxicité d’eaux usées traitées". Techniques Sciences Méthodes 6, n. 6 (21 giugno 2021): 87–102. http://dx.doi.org/10.36904/tsm/202106087.

Testo completo
Abstract (sommario):
Comment peut-on mettre en lumière et discriminer les pollutions dues aux micropolluants en sortie de stations d’épuration ? Les mesures physico-chimiques en continu sur le terrain ainsi que les mesures chimiques en laboratoire ne rendent pas compte de la réalité de la pollution dite diffuse due aux micropolluants. Trois types de bioessais ou biocapteurs ont été testés, de juillet 2019 à mars 2020, sur la station d’épuration de Saint-Fons (Rhône, France) afin de déterminer ce qu’ils peuvent apporter à la surveillance de la qualité des eaux usées traitées : les bancs d’expérimentation ex situ travaillant à l’aide de populations de gammares et deux capteurs en continu innovants, un capteur microbien mettant en oeuvre une communauté bactérienne endogène et une station de biosurveillance dont le principe repose sur une base multiespèce (crustacés, gastéropodes et sangsues). Ce type de mesures offre clairement une complémentarité aux analyses chimiques. Ils permettent de rendre visibles des stress biologiques sur des périodes prolongées ou bien en temps réel. Les capteurs physico-chimiques offrent des réponses globales, mais n’ont pas une sensibilité suffisante pour détecter une pollution diffuse. Les analyses chimiques sur les prélèvements moyens 24 heures ne donnent pas de réponse pertinente. Sans biocapteur, la surveillance analytique et instrumentale actuelle des stations d’épuration ne permet pas d’évaluer les impacts biologiques dus aux micropolluants, sur la vie aquatique. Ces tests montrent les aspects bénéfiques d’un traitement tertiaire dédié à la lutte contre les micropolluants, et la pertinence d’une biosurveillance des eaux rejetées dans les milieux naturels. Les prochaines recherches visant à accélérer le déploiement de ce type d’outil devront être axées sur la discrimination du type de pollution détectée.
Gli stili APA, Harvard, Vancouver, ISO e altri
25

Faure, Marion, Denys Durand, Agnès Thomas, Anne-Sophie Bage, Stéphane Andanson, Christine Ravel, Hervé Chandeze, Eric Delval, Anne de la Foye e Alice de Boyer des Roches. "Intérêt d’une analgésie multimodale pour réduire la douleur lors de la castration chez l’ovin : mise en évidence par une approche originale". Le Nouveau Praticien Vétérinaire élevages & santé 11, n. 43 (2019): 37–44. http://dx.doi.org/10.1051/npvelsa/43037.

Testo completo
Abstract (sommario):
L’objectif était de suivre la douleur induite par la castration chez des ovins et d’évaluer l'efficacité de différentes stratégies analgésiques. Vingt-quatre moutons Texel mâles âgés de 12 mois ont été castrés par pince burdizzo sans anesthésie (Cast), après une anesthésie locale (Cast + AL) ou après une anesthésie locale associée des AINS (Cast +AL +AINS). Les réponses comportementales et physiologiques des moutons ont été enregistrées durant quatre périodes : P0 (-24h à -1 h), P1 (0 à +2 h), P2 (+3 h à +32 h) et P3 (+36 h à +78 h). Les périodes en fonction des traitements ont pu être parfaitement différenciées grâce aux 23 indicateurs de l’approche multiparamétrique. Les lots Cast en P0, Cast + AL en P0 et Cast + AL + AINS en P0, P1 et P2 ont présenté les valeurs les plus faibles pour tous les indicateurs, reflétant probablement l'absence de douleur et d’inconfort. Les moutons des lots Cast en P1 et P2, et Cast + AL en P2 ont montré des signes cliniques et une attention réduite, un rapport LF/HF élevé et des taux de cortisol élevés, reflétant une douleur aiguë. Les lots Cast et Cast + AL en P3 ont une température élevée et des concentrations en haptoglobine, glucose et SAA élevées. Ainsi, les signes comportementaux de douleur ont été présents pendant les 32 premières heures suivant la castration ; l'anesthésie locale a été efficace, mais seulement pendant son temps d'action (2 h) ; l'analgésie multimodale (AL+AINS) a été efficace jusqu'à 3 jours après la castration. Ces résultats, notamment ceux liés au comportement des moutons, peuvent aider les vétérinaires et les éleveurs à mieux détecter la douleur et ainsi, à mieux prendre en charge le soulagement de la douleur.
Gli stili APA, Harvard, Vancouver, ISO e altri
26

Pépin, L., Emmanuel Camus, Gérard Matheron e Albert Bensaïd. "Utilisation de microsatellites comme marqueurs génomiques pour l’étude de la résistance à la cowdriose". Revue d’élevage et de médecine vétérinaire des pays tropicaux 46, n. 1-2 (1 gennaio 1993): 209. http://dx.doi.org/10.19182/remvt.9364.

Testo completo
Abstract (sommario):
Les chèvres Créole de Guadeloupe sont considérées comme appartenant à une même race. Néanmoins, selon leur origine géographique, elles peuvent être résistantes ou sensibles à la cowdriose. Une étude antérieure a montré que la résistance est probablement sous contrôle génétique. Le but de l’étude actuelle est de fournir les outils de base pour trouver des marqueurs génomiques de chèvre ayant une corrélation avec la résistance à la cowdriose. Afin d’accomplir cette tâche il faut détecter des régions très polymorphiques distribuées de façon égale sur le génome pour servir de repères. Ainsi, des portions du génome impliquées dans la détermination d’un caractère donné peuvent être suivies dans des populations. De tels repères existent, ce sont les microsatellites; ils ont déjà été utilisés avec succès pour cartographier certains traits de la souris et de l’espèce humaine. Des séquences microsatellites sont composées de répétitions de di- ou tri-nucléotides, le polymorphisme étant basé sur le fait que le nombre de répétitions peut varier entre individus. Si elles sont flanquées par des séquences non-répétitives, elles peuvent être détectées facilement parla technique de réaction en chaîne de polymérase (RCP). Des amorces délimitant cinq microsatellites, caractérisés auparavant dans le génome bovin, ont été appliquées avec succès au génome caprin. De l’ADN de 70 chèvres, dont 30 chèvres Créole, 10 Sahélienne, 10 Guinéenne, 10 de race Saanen et 10 de race Alpine, a été préparé et soumis à la RCP. Du polymorphisme a été détecté dans les cinq satellites et 3, 4, 8, 14 et 15 allèles ont été démontrés respectivement pour chaque microsatellite. D’autres microsatellites ont été trouvés utiles et seront soumis à des tests plus approfondis. En même temps, des familles de chèvres Créole sont constituées par croisements d’animaux résistants et sensibles. La technologie décrite ici sera appliquée à l’ADN de chèvres de la génération F1 pour déterminer si la ségrégation d’une région polymorphe donnée est liée au caractère de la résistance à la cowdriose.
Gli stili APA, Harvard, Vancouver, ISO e altri
27

GONZÁLEZ VÁZQUEZ, B., J. M. CHOUBERT, J. P. CANLER e E. PAUL. "Prévoir et prévenir la dérive vers le colmatage d’un biofiltre". 3 3 (21 marzo 2022): 49–62. http://dx.doi.org/10.36904/tsm/202203049.

Testo completo
Abstract (sommario):
La biofiltration est une technologie compacte, efficace pour le traitement des effluents urbains, et bien implantée en France et dans le monde. Certaines installations sont toutefois régulièrement touchées par un colmatage irréversible nécessitant des interventions lourdes pour rétablir la capacité de traitement. Compte tenu de la multiplicité des causes possibles et du caractère dynamique du fonctionnement des installations, détecter la dérive vers le colmatage irréversible nécessite une très bonne connaissance des processus, du dimensionnement, de l’historique de fonctionnement et des limites d’exploitation des installations. Le travail présenté ici propose une méthode systématique d’analyse multicritère des données de fonctionnement d’une installation de biofiltration en vue de maîtriser les étapes menant au colmatage sans atteindre le stade irréversible. Il définit les descripteurs à suivre et leur fréquence de détermination, et présente la méthode de définition de l’état de référence auquel les conditions de fonctionnement doivent être comparées. Cette méthode est illustrée avec des données couvrant une période de plus de deux ans de suivi d’une installation réelle. Nous avons montré que l’analyse de la survenue du colmatage irréversible et la détermination des causes possibles peuvent être réalisées à partir de l’analyse minutieuse des charges hydrauliques, des charges volumiques en demande chimique en oxygène (DCO) et en matières en suspension (MES), des concentrations de l’eau à traiter à l’entrée de la biofiltration et de la fraction biodégradable, de la durée de filtration, ou encore à travers l’analyse des conditions de fonctionnement du traitement primaire en intégrant l’impact des retours et plus particulièrement les eaux de lavage des biofiltres. La méthode s’appuie également sur des critères créés spécifiquement pour confirmer et situer le colmatage irréversible dans le temps, tels que les pertes de charge et le volume de vide (porosité) au début d’un cycle de filtration (après lavage). La prédiction et la prévention de la survenue d’un colmatage irréversible par cette méthode permettent l’amélioration des performances épuratoires, la fiabilité du fonctionnement de la biofiltration et donc la réduction des coûts d’exploitation et de l’impact environnemental.
Gli stili APA, Harvard, Vancouver, ISO e altri
28

Fülöp, Melinda Timea, Javier Cifuentes-Faura e Dan Ioan Topor. "L’autonomie financière dans les gouvernements locaux espagnols : preuve empirique de la convergence bêta et sigma". Revue Internationale des Sciences Administratives 90, n. 3 (22 ottobre 2024): 555–71. http://dx.doi.org/10.3917/risa.903.0555.

Testo completo
Abstract (sommario):
Sur le plan territorial, les administrations publiques espagnoles sont organisées en administration d’État, administration des communautés autonomes et administration locale. Le gouvernement local a le contact le plus étroit avec les citoyens et, par conséquent, les pouvoirs et les décisions prises par les institutions locales ont le plus grand impact sur le bien-être social des citoyens. Pour assurer ce bien-être, il est nécessaire d’analyser et de prêter attention à l’autonomie administrative et financière des gouvernements locaux. L’autonomie financière se traduit par la capacité des entités locales à gouverner leurs finances respectives, en déterminant, dans certaines limites, le niveau du volume de leurs ressources propres et en organisant leurs dépenses. Dans ce travail, nous étudions l’indicateur d’autonomie financière, qui vise à déterminer les ressources fiscales dont dispose l’entité locale. Compte tenu du fait que les municipalités espagnoles ont, en fonction de la taille de leur population, des obligations différentes lorsqu’elles fournissent des services aux citoyens, la convergence de l’autonomie financière est étudiée afin de détecter s’il existe des tendances communes en appliquant les techniques de β-convergence et de σ-convergence. Il est analysé si les municipalités partant d’indicateurs plus faibles atteignent une croissance plus élevée au fil du temps (β-convergence), et si la dispersion entre les municipalités est réduite (σ-convergence). Remarques à l’intention des praticiens L’autonomie locale accorde aux entités locales la liberté de gérer leurs propres intérêts dans le cadre juridique de l’État. Les grandes communautés se caractérisent par une plus grande diversité économique et la capacité de lever plus d’argent par leurs propres moyens grâce aux impôts, aux redevances et à d’autres sources. Elles disposent d’une assiette fiscale plus large grâce à leur plus grande diversification économique, ce qui ouvre davantage de possibilités pour la collecte des recettes. C’est dans les plus petites municipalités que la vitesse de convergence est la plus élevée. Le fait de savoir s’il y a convergence ou divergence en matière d’autonomie financière peut aider les décideurs politiques.
Gli stili APA, Harvard, Vancouver, ISO e altri
29

Turner, Sarah E., Raelyne L. Dopko, Gary Goldfield, Paula Cloutier, Kathleen Pajer, Mohcene Abdessemed, Fatima Mougharbel, Michael Ranney, Matt D. Hoffmann e Justin J. Lang. "Validation des seuils cliniques dans la version remplie par les parents du Questionnaire sur les points forts et les points faibles au sein d’un vaste échantillon d’enfants et de jeunes canadiens". Promotion de la santé et prévention des maladies chroniques au Canada 43, n. 9 (settembre 2023): 458–70. http://dx.doi.org/10.24095/hpcdp.43.9.03f.

Testo completo
Abstract (sommario):
Introduction Le Questionnaire sur les points forts et les points faibles (Strengths and Difficulties Questionnaire, ou SDQ), qui permet d’évaluer les difficultés comportementales et émotionnelles, est un outil de dépistage des problèmes de santé mentale utilisé dans plusieurs pays. Notre objectif était de valider les seuils (cut-points) actuels, britanniques, du SDQ au sein d’un échantillon d’enfants et de jeunes canadiens et, au besoin, de fixer de nouveaux seuils canadiens pour le SDQ. Méthodologie Cette étude est fondée sur les données d’enfants et de jeunes de 6 à 17 ans provenant de l’Enquête canadienne sur les mesures de la santé (n = 3 435) et de dossiers de consultations externes du Centre hospitalier pour enfants de l’est de l’Ontario (n = 1 075). Nous avons recueilli les données issues du SDQ rempli par les parents. Nous avons ajusté les seuils actuels du SDQ à l’aide d’une approche fondée sur la distribution et d’une approche par courbe ROC (Receiver Operating Characteristic, ou courbe caractéristique de la performance d’un test). Nous avons ensuite calculé, à l’aide de ces deux méthodes analytiques, la sensibilité, la spécificité et le rapport de cotes diagnostique des seuils cliniques actuels et des nouveaux seuils cliniques du SDQ afin de déterminer si de nouveaux seuils offriraient une meilleure utilité clinique. Résultats Les données recueillies révèlent des différences entre les seuils cliniques britanniques et les seuils cliniques canadiens en matière d’efficacité de dépistage. L’utilisation des valeurs canadiennes obtenues à l’aide de la technique fondée sur la distribution a permis de maximiser la spécificité, c’est-à-dire qu’elle a permis d’améliorer la probabilité de détecter les vrais négatifs. Le score total au SDQ atteignait le seuil d’utilité clinique (rapport de cotes diagnostiques > 20) tant avec les seuils actuels qu’avec les nouveaux seuils, mais les échelles individuelles n’atteignaient pas ce seuil d’utilité clinique, et ce, avec aucun des deux seuils. Conclusion Les chercheurs canadiens travaillant avec le SDQ devraient tenir compte à la fois des nouveaux seuils calculés avec notre population à l’étude et des seuils britanniques afin de permettre les comparaisons au fil du temps et entre pays.
Gli stili APA, Harvard, Vancouver, ISO e altri
30

Hanzen, Christian, Pauline Delhez, Emilie Knapp, Jean-Luc Hornick e Djalel Eddine Gherissi. "Le stress thermique environnemental dans l’espèce bovine : 1. Caractéristiques générales et méthodes d’évaluation". Revue d’élevage et de médecine vétérinaire des pays tropicaux 77 (22 novembre 2024): 1–8. http://dx.doi.org/10.19182/remvt.37379.

Testo completo
Abstract (sommario):
Contexte : La température moyenne à la surface du globe ne cesse d’augmenter. Elle entraîne notamment une augmentation de la fréquence des vagues de chaleur c’est-à-dire de périodes d’une durée de 3 à 6 jours durant lesquelles la température de l’air est supérieure à la température moyenne de la zone géographique concernée. Cette situation s’accompagne de multiples conséquences pour les populations humaines, végétales et animales. Objectif : Cette revue de littérature a pour objectif de récapituler les concepts fondamentaux régissant la régulation thermique chez les bovins. Méthode : Une recherche bibliographique a été réalisée dans PubMed. Elle s’est concentrée dans un premier temps sur les articles de synthèse puis a été complétée par les références des articles identifiés. Résultats : La régulation thermique implique une série de processus tels que la radiation, la convection, la conduction et l’évaporation. Ces processus vont, en fonction des caractéristiques de l’animal et de son environnement, contribuer à réduire ou à augmenter les effets du stress thermique. Le stress thermique se définit comme l’état de déséquilibre entre, d’une part, les facteurs qui contribuent à augmenter la température corporelle et d’autre part, ceux qui au contraire, contribuent à la diminuer. Cette situation de stress thermique se rencontre quand l’animal se trouve en-dehors de sa zone dite de neutralité thermique définie par des températures minimale et maximale critiques dont les valeurs dépendent de l’âge, la race, le niveau de production, l’état corporel, le stade de lactation, les bâtiments d’élevage, la couleur du poil et de la peau. Les effets de la température extérieure dépendent du degré d’humidité de l’environnement. Ils peuvent être évalués au moyen de divers index THI (Temperature Humidity Index). De plus en plus, des technologies émergent (imagerie en profondeur, thermographie par infrarouge, vidéosurveillance, accéléromètres, podomètres) et permettent de suivre les données météorologiques, l’environnement thermique des animaux, voire de détecter leurs signes de stress. Conclusions : Il est essentiel de sensibiliser les responsables de la santé animale aux effets du stress thermique sur la capacité des animaux à réguler leur température corporelle. Cette capacité peut être évaluée de manière toujours plus précise grâce à des index et des technologies qui permettent de mesurer et de comprendre les effets du stress thermique sur les animaux.
Gli stili APA, Harvard, Vancouver, ISO e altri
31

Hon, Chun-Yip. "Side-by-Side Comparison of Methods for Environmental Monitoring for Hazardous Drug Contamination". Canadian Journal of Hospital Pharmacy 76, n. 2 (3 aprile 2023): 87–93. http://dx.doi.org/10.4212/cjhp.3275.

Testo completo
Abstract (sommario):
Background: Exposure to hazardous drugs is known to have deleterious effects on health care workers. To assess risk, environmental monitoring is conducted to ascertain drug contamination on surfaces, as dermal contact is the main route of exposure. Conventional monitoring employs wipe sampling whereby the wipe must be sent to a laboratory for analysis. This means that quantitative results are not available for some time, during which the risk remains unknown. A new device, the HD Check system, developed by BD, which uses lateral-flow immunoassay technology, allows for near real-time qualitative assessment of contamination (positive or negative); however, its sensitivity relative to the traditional method is unknown. Objective: To evaluate the ability of this novel device to detect drug contamination relative to the conventional method. Methods: Five sets of different known drug concentrations were compared between the conventional wipe sampling method and the HD Check systems for methotrexate (MTX) and cyclophosphamide (CP). Stainless steel surfaces were tested, and the drug concentrations ranged from 0 ng/cm2 to twice the limit of detection (LOD) of each HD Check system. Results: For MTX, positive results were obtained in every test trial at all drug concentrations examined with the HD Check system (LOD = 0.93 ng/cm2). For CP, test results with the HD Check system (LOD = 4.65 ng/cm2) were all positive at the LOD and twice the LOD; however, at 50% and 75% of the LOD, the result was positive in only 90% (9/10) of the trials. The conventional method was able to quantify the test drug concentrations with a high level of accuracy and reproducibility. Conclusions: These results suggest the potential utility of the novel device as a screening tool for higher levels of drug contamination with MTX and CP, but additional research is needed to determine its suitability for lower concentrations, especially of CP. RÉSUMÉ Contexte : L’exposition à des médicaments dangereux est connue pour avoir des effets délétères sur les travailleurs de la santé. Pour évaluer les risques, une surveillance environnementale est menée pour vérifier la contamination des surfaces par les médicaments, car le contact cutané est la principale voie d’exposition. La surveillance conventionnelle utilise un échantillonnage par frottis, lequel doit être envoyé à un laboratoire pour analyse. Cela signifie que les résultats quantitatifs ne sont pas disponibles pendant un certain temps – temps pendant lequel le risque reste inconnu. Un nouvel appareil, le système HD Check de BD, qui utilise la technologie d’immunodosage à flux latéral, permet une évaluation qualitative en temps quasi réel de la contamination (positive ou négative); cependant, sa sensibilité par rapport à la méthode traditionnelle est inconnue. Objectif : Évaluer la capacité de ce nouveau dispositif pour détecter la contamination médicamenteuse par rapport à la méthode conventionnelle. Méthodes : Cinq ensembles de différentes concentrations connues de médicaments ont été utilisés pour comparer la méthode conventionnelle d’échantillonnage par frottis et les systèmes HD Check pour la méthotrexate (MTX) et la cyclophosphamide (CP). Des surfaces en acier inoxydable ont été testées et les concentrations de médicament variaient de 0 ng/cm2 à deux fois la limite de détection (LD) de chaque système HD Check. Résultats : Pour la MTX, des résultats positifs ont été obtenus dans chaque essai à toutes les concentrations de médicament examinées avec le système HD Check (LD = 0,93 ng/cm2). Pour la CP, les résultats des tests avec le système HD Check (LD = 4,65 ng/cm2) étaient tous positifs à la LD et au double de la LD; cependant, à 50 % et 75 % de la LD, le résultat n’était positif que dans 90 % (9/10) des essais. La méthode conventionnelle a été en mesure de quantifier les concentrations de médicament à l’essai avec un niveau élevé de précision et de reproductibilité. Conclusions : Ces résultats suggèrent l’utilité potentielle du nouveau dispositif comme outil de dépistage pour des niveaux plus élevés de contamination médicamenteuse par la MTX et la CP, mais des recherches supplémentaires sont nécessaires pour déterminer son adéquation à des concentrations plus faibles, en particulier de CP.
Gli stili APA, Harvard, Vancouver, ISO e altri
32

Passilly, Bruno, Benjamin Lamboul e Jean-Michel Roche. "Indentation haute fréquence : vers le contrôle non-destructif des structures". Matériaux & Techniques 105, n. 1 (2017): 110. http://dx.doi.org/10.1051/mattech/2017026.

Testo completo
Abstract (sommario):
La nanoindentation est couramment utilisée pour déterminer les propriétés mécaniques locales des matériaux. La matière est sollicitée de façon quasi statique en appliquant un indenteur sur la surface à analyser. À partir de la courbe représentant la charge appliquée par l’indenteur sur le matériau en fonction du déplacement de l’indenteur, les modèles classiques permettent de déterminer le module d’Young local en tout point de test [Oliver & Pharr, AIP Conference proceedings 7 (1992) 1564-1583; Doerner & Nix, J. Mater. Res. 1 (1986) 601-609; Loubet et al., Vickers indentation curves of elastoplastic materials, in American Society for Testing and Materials STP 889, Microindentation Techniques in Materials Science and Engineering, Blau & Lawn eds, 1986, pp. 72-89]. Cet essai est surtout utilisé sur de petites surfaces de matière (<1 cm2), qui doivent présenter un état de surface poli et plan afin de ne pas fausser la mesure, mais n’est pas adapté sur des pièces de structure de type tôle ou sandwich composite (>1000 cm2). Par extension de la méthode CSM (Continuous Stiffness Measurement) [Asif et al., Rev. Sci. Instrum. 70 (1999) 2408-2413], l’indenteur peut servir de générateur de vibrations. Pour cela l’indenteur est positionné sur un empilement de céramiques piézoélectriques et est appliqué sur la surface à analyser à une charge fixe de 1000 mN. L’indenteur est soumis à une oscillation à une fréquence de 5 kHz, alimenté à 10 V. Les ondes ultrasonores ainsi générées, dites «ondes de Lamb», induisent un déplacement nanométrique de la surface, détectable par un vibromètre laser. Il est alors possible de suivre la propagation du front d’onde et de détecter ses interactions avec d’éventuels défauts de la structure inspectée [Boro Djordjevic, Quantitative ultrasonic guided wave testing of composites, The 39th Annual Review of Progress, 2013]. Il en résulte une cartographie complète de la surface. L’indenteur peut aussi être utilisé comme récepteur de l’onde générée. Le positionnement d’indenteurs récepteurs en plusieurs endroits de la structure permet de mesurer le temps de vol de l’onde entre l’indenteur émetteur et l’indenteur récepteur. La connaissance précise de la distance entre les points d’émission et de réception de l’onde permet de mesurer les vitesses en fonction de l’anisotropie du matériau, ce qui, à terme, peut permettre de remonter à ses constantes d’élasticité.
Gli stili APA, Harvard, Vancouver, ISO e altri
33

Desroches, Mireille, Liza Lee, Shamir Mukhi e Christina Bancej. "Représentativité du programme participatif de surveillance des maladies ActionGrippe, 2015–2016 à 2018–2019 : comment les participants se comparent-ils à la population canadienne?" Relevé des maladies transmissibles au Canada 47, n. 09 (10 settembre 2021): 401–9. http://dx.doi.org/10.14745/ccdr.v47i09a03f.

Testo completo
Abstract (sommario):
Contexte : Le programme ÉpiGrippe est le système de surveillance national du Canada chargé de suivre la propagation de la grippe. Son volet de surveillance syndromique surveille la propagation du syndrome d’allure grippale en temps quasi réel pour détecter les signaux d’une activité inhabituelle ou accrue. Les données de surveillance syndromique sont recueillies à partir de deux sources principales : le Programme de surveillance des praticiens sentinelles et le programme ActionGrippe. Nous avons évalué la représentativité de la population participante la plus récente afin de comprendre les variations du taux de représentation depuis 2015, de cerner les écarts démographiques et géographiques ainsi que les corrélats ou déterminants de la participation pour caractériser un participant type. Méthodes : Dans cette étude transversale en série, les caractéristiques des participants au cours de quatre saisons grippales consécutives (2015–2016, 2016–2017, 2017–2018 et 2018–2019) ont été comparées à celles du Recensement canadien de 2016 et des enquêtes nationales sur la couverture vaccinale contre la grippe saisonnière de 2015–2016, de 2016–2017, de 2017–2018 et de 2018–2019. Les associations entre les facteurs démographiques et le niveau de participation des utilisateurs ont également été analysées parmi la population participant au programme ActionGrippe en 2018–2019. Résultats : Les enfants en bas âge (0 à 4 ans) et les personnes âgées (65 ans et plus) étaient sous-représentés dans le programme ActionGrippe au cours des quatre saisons grippales. Les femmes et les participants urbains étaient largement surreprésentés. La couverture vaccinale est restée considérablement plus élevée parmi les populations participant au programme ActionGrippe au cours des quatre dernières saisons grippales dans tous les groupes d’âge. Le niveau de participation au programme ActionGrippe était associé à l’âge et au statut d’immunisation, mais pas au sexe ni à la géographie. Au cours des quatre années de mise en œuvre, la population participant au programme ActionGrippe est devenue plus représentative de la population canadienne en ce qui concerne l’âge et la géographie (urbaine/rurale et provinciale/territoriale). Conclusion : Les participants au programme ActionGrippe sous-représentent les enfants en bas âge et les personnes âgées du Canada et surreprésentent ceux et celles qui adoptent des comportements favorables à la santé, comme l’indique la couverture vaccinale élevée contre la grippe, ce qui correspond aux biais de réponse typiques des enquêtes volontaires. La représentativité serait probablement améliorée par un recrutement ciblé des groupes sous-représentés, tels que les hommes, les personnes âgées et les Canadiens vivant dans les régions rurales.
Gli stili APA, Harvard, Vancouver, ISO e altri
34

Peletiri, I. C., E. I. Ikeh, G. M. Ayanbimpe e E. Nna. "Molecular detection and characterization of bacteria from CSF samples of patients with suspected cerebrospinal meningitis in parts of northern Nigeria using metagenomic DNA extracts". African Journal of Clinical and Experimental Microbiology 22, n. 3 (2 luglio 2021): 365–76. http://dx.doi.org/10.4314/ajcem.v22i3.8.

Testo completo
Abstract (sommario):
Background: The most commonly used approaches for detection and characterization of bacterial pathogens of meningitis in developing countries include culture, Gram stain, and latex agglutination. The positivity rate of culture is relatively low due to suboptimal storage and transportation conditions, culture practice, and/or antibiotic treatment administered before specimens are collected. Specimens that yield no growth in culture can still be analyzed using molecular methods, and metagenomic DNA (mDNA) extracted directly from clinical samples (CSF) can be used. We aimed to detect and characterize three major bacterial causes of cerebrospinal meningitis (CSM); Neisseria meningitidis, Haemophilus influenzae, and Streptococcus pneumoniae using mDNA extracted directly from CSF samples. Methodology: Metagenomic DNA templates were prepared directly from CSF specimens collected from 210 patients with suspected CSM. A multiplex Real Time PCR (mRT-PCR) using the ABI StepOne Plus Machine and Taqman Probe chemistry was used in the molecular detection, while serogroup/serotype-specific singleplex RT-PCR was used to characterize all positives samples. Results: Eighty-eight (41.9%) of the 210 samples were positive with the mRT-PCR assay for one or a combination of two of the three bacteria. Of these, 59 (67.1%) were N. meningitidis, 2 (2.3%) were H. influenzae, 3 (3.4%) were S. pneumoniae, 15 (17 %) had co-infections of N. meningitidis with H. influenzae, and 9 (10.2%) had co-infections of H. influenzae and S. pneumoniae. The serogroups of N. meningitidis encountered were A (13.5%), B (23%), C (8.1%), W135 (8.1%), X (5.4%), Y (32.4%), and non-groupable (9.5%). The serotypes of H. influenzae were Hia (3.8%), Hib (57.7%), Hic (3.85%), Hie (11.5%) and Hif (23.1%). The serotypes of S. pneumoniae were Wxy1 (8.3%), Wxy4 (33.3%), Wxy5 (50.0%), and Wxy9 (8.3%). Conclusion: Multiplex RT-PCR is a fast and accurate method for detecting and characterizing serogroups/serotypes of major bacteria implicated in CSM. Isolating DNA directly from CSF improves turnaround time, which will speed up patient care and management. Keywords: Cerebrospinal meningitis, metagenomic DNA, multiplex Real Time PCR, Northern Nigeria French title: Détection moléculaire et caractérisation de bactéries à partir d'échantillons de LCR de patients suspectés de méningite cérébrospinale dans certaines parties du nord du Nigéria à l'aide d'extraits d'ADN métagénomique Contexte: Les approches les plus couramment utilisées pour la détection et la caractérisation des agents pathogènes bactériens de la méningite dans les pays en développement comprennent la culture, la coloration de Gram et l'agglutination au latex. Le taux de positivité de la culture est relativement faible en raison des conditions de stockage et de transport sous-optimales, des pratiques de culture et/ou du traitement antibiotique administré avant le prélèvement des échantillons. Les échantillons qui ne donnent pas de croissance en culture peuvent toujours être analysés à l'aide de méthodes moléculaires, et l'ADN métagénomique (ADNm) extrait directement d'échantillons cliniques (LCR) peut être utilisé. Nous visions à détecter et à caractériser trois causes bactériennes majeures de la méningite cérébrospinale (CSM); Neisseria meningitidis, Haemophilus influenzae et Streptococcus pneumoniae à l'aide d'ADNm extrait directement d'échantillons de LCR. Méthodologie: Des matrices d'ADN métagénomique ont été préparées directement à partir d'échantillons de LCR prélevés sur 210 patients suspects de CSM. Une PCR multiplex en temps réel (mRT-PCR) utilisant la chimie de la machine ABI StepOne Plus et de la sonde Taqman a été utilisée pour la détection moléculaire, tandis que la RT-PCR monoplex spécifique au sérogroupe/sérotype a été utilisée pour caractériser tous les échantillons positifs. Résultats: Quatre-vingt-huit (41,9%) des 210 échantillons étaient positifs avec le test mRT-PCR pour une ou une combinaison de deux des trois bactéries. Parmi ceux-ci, 59 (67,1%) étaient N. meningitidis, 2 (2,3%) étaient H. influenzae, 3 (3,4%) étaient S. pneumoniae, 15 (17%) avaient des co-infections de N. meningitidis avec H. influenzae et 9 (10,2%) avaient des co-infections à H. influenzae et S. pneumoniae. Les sérogroupes de N. meningitidis rencontrés étaient A (13,5%), B (23%), C (8,1%), W135 (8,1%), X (5,4%), Y (32,4%) et non groupables (9,5%). Les sérotypes de H. influenzae étaient Hia (3,8%), Hib (57,7%), Hic (3,85%), Hie (11,5%) et Hif (23,1%). Les sérotypes de S. pneumoniae étaient Wxy1 (8,3%), Wxy4 (33,3%), Wxy5 (50,0%) et Wxy9 (8,3%). Conclusion: La RT-PCR multiplex est une méthode rapide et précise de détection et de caractérisation des sérogroupes/sérotypes des principales bactéries impliquées dans le CSM. Isoler l'ADN directement du LCR améliore le temps de traitement, ce qui accélérera les soins et la gestion des patients. Mots clés: méningite cérébro-spinale, ADN métagénomique, PCR multiplex en temps réel, nord du Nigéria
Gli stili APA, Harvard, Vancouver, ISO e altri
35

BOICHARD, D., Aurélien CAPITAN, Coralie DANCHIN-BURGE e Cécile GROHS. "Avant-propos : Anomalies génétiques". INRA Productions Animales 29, n. 5 (9 gennaio 2020): 293–96. http://dx.doi.org/10.20870/productions-animales.2016.29.5.2995.

Testo completo
Abstract (sommario):
Avant-Propos : Anomalies génétiques Les anomalies génétiques sont observées depuis toujours par les éleveurs et ont été décrites depuis longtemps par les chercheurs. Toutefois, elles ont toujours eu une situation à part dans la sélection des espèces d’élevage. Si la sélection s’est structurée, organisée, raffinée, elle n’a le plus souvent concerné que des caractères économiquement importants mais dits « quantitatifs », c’est-à-dire des caractères au déterminisme génétique complexe soumis à la fois à des effets du milieu et un nombre important de gènes. Parfois, des gènes à effet majeur ont également été pris en compte (gène culard, gène « sans cornes », coloration, absence de plumes…). Mais les anomalies ont toujours été considérées comme un problème inévitable, éventuellement à cacher. Elles ont été peu prises en compte en sélection, elles ne font pas l’objet de déclarations dans le cadre du contrôle de performances usuel et, au contraire, jusqu’à récemment, faisaient plutôt l’objet d’éliminations, volontairement ou non, sans déclaration. Considérées comme rares, elles ont été intégrées dans les incompressibles pertes d’élevage. La situation se complique en général lorsqu’un reproducteur largement diffusé s’avère porteur d’une anomalie. L’anomalie change alors de statut : d’inconvénient inéluctable mais peu important, elle apparaît comme un problème majeur pour les éleveurs, source de contentieux, porteur d’une mauvaise image. Son éradication rapide devient prioritaire, et l’élimination des reproducteurs porteurs est généralement préconisée. Au cours des années 1990 et 2000, quelques cas dans l’espèce bovine, finalement peu nombreux, ont marqué les esprits par l’impact qu’ils ont eu dans les populations concernées quand les meilleurs taureaux du moment se sont révélés porteurs. De plus, aucun réseau « du déclarant au généticien » n’étant mis en place, il a fallu du temps entre la déclaration des premiers cas et la disponibilité d’un test moléculaire permettant une éradication réellement efficace. Les anomalies génétiques sont inéluctables. Elles résultent de mutations de l’ADN qui sont un phénomène normal source de la diversité génétique. Souvent neutres, parfois fonctionnelles, les mutations peuvent dans des cas rares être responsables d’anomalies. Les populations d’élevage étant des populations génétiquement petites (malgré des effectifs physiques parfois très élevés), elles présentent des conditions favorables pour la diffusion et l’expression de ces anomalies, du fait de la dérive génétique et de la consanguinité. Contrairement à ce qui est parfois supposé, la sélection ne crée pas les anomalies, mais elle peut favoriser leur diffusion (l’augmentation de leur fréquence allélique et l’apparition de cas), de façon analogue aux antibiotiques qui ne créent pas de résistance, mais sélectionnent les populations bactériennes résistantes. On pense également à tort que les populations génétiquement petites présentent plus d’anomalies. Il est plus exact de dire qu’à effectif d’animaux identique, les populations génétiquement petites présentent un nombre d’anomalies différentes plus faible, mais un nombre de cas par anomalie plus élevé. Alors que la sélection est un modèle de rationalité, les anomalies sont longtemps restées hors de ce cadre. Une des raisons était sans doute le manque d’outils pour les éliminer. Une mise en place progressive depuis quinze ans et une accélération certaine des techniques de dépistage depuis le début des années 2010 a permis de définir un nouveau cadre pour intégrer les anomalies dans le processus de sélection. Tout d’abord, il est essentiel de disposer d’un système d’observation des anomalies. Les cas étant souvent rares et dispersés, il est essentiel que ce système soit largement implanté sur le terrain et que les informations soient centralisées, de façon à détecter les émergences le plus tôt possible, à partir de cas considérés éventuellement à tort comme sporadiques. Différents observatoires dédiés, souvent distincts du contrôle de performances classique, ont été mis en place à travers le monde et dans différentes espèces d’élevage ou de compagnie. Nous présentons dans ce dossier l’Observatoire National des Anomalies Bovines – ONAB ; https://www.onab.fr/ – (Grohs et al 2016) et la situation chez le porc (Riquet et al 2016). Ces dispositifs ont réellement montré toute leur efficacité lorsque les outils moléculaires les plus récents, de génotypage et séquençage, ont été disponibles, permettant de caractériser rapidement une anomalie à partir de quelques cas (Duchesne et al 2016). Ces outils génomiques peuvent même être utilisés pour orienter la recherche des anomalies avant leur observation (Fritz et al 2016). Enfin, il convient d’insister sur le fait que l’analyse de cas mais aussi de leurs ancêtres n’est possible que si d’excellentes collections d’échantillons sont stockées, comme c’est le cas pour l’ONAB ou pour le Centre de Ressources Biologiques pour les animaux domestiques (CRB-Anim ; https://www.crb-anim.fr/). La situation est bien sûr très variable selon les espèces. L’impact d’une anomalie, et donc la prise de conscience des sélectionneurs, est plus élevé dans les espèces conduites en race pure et quand l’individu a une forte valeur. L’espèce bovine est caractérisée par un double réseau de phénotypage associé au conseil en élevage et au travers des vétérinaires, par une conduite en race pure quasi-exclusive, par une sélection puissante, devenue génomique. Elle connaît une évolution récente favorisant la détection des anomalies. La situation est également très avancée chez le chien, une espèce bénéficiant d’une bonne supervision vétérinaire et organisée en de nombreuses races pures d’effectifs génétiques très petits et souvent sujettes à des anomalies spécifiques. Aujourd’hui, la situation a beaucoup évolué, de sorte qu’un nombre croissant d’anomalies est mis en évidence, dans toutes les races, quel que soit le mode de reproduction prédominant (monte naturelle ou insémination artificielle). En revanche, leur prise en compte reste encore partielle, et rarement à la hauteur (c’est-à-dire parfois trop, parfois trop peu) de leur importance réelle. Nous proposons dans Boichard et al (2016) différentes approches pour inclure les anomalies de façon objective dans la sélection. Pour le chercheur, les anomalies sont des objets d’étude hors du commun. L’anomalie, en provoquant une perturbation sévère en dehors de la gamme physiologique normale, permet parfois de comprendre un mécanisme habituellement peu variable et donc peu étudiable autrement. On comprend ainsi mieux le rôle des gènes au travers de leurs effets lorsqu’ils sont mutés. Les mécanismes mis en jeu touchent souvent des voies fondamentales du vivant et, à ce titre, sont souvent transposables entre espèces. Les connaissances sont bien sûr bien plus avancées chez l’Homme ou les espèces modèles comme la souris et nous bénéficions de ces informations pour caractériser rapidement les mutations découvertes dans les espèces d’élevage. Mais parfois, une anomalie observée dans une espèce d’élevage peut aussi contribuer à résoudre des questions chez l’Homme, par exemple pour des maladies très rares alors que la structure des populations d’élevage avec de grandes familles permet l’étude de cas familiaux. Il arrive alors que l’espèce d’élevage, de même que le chien, prenne le rôle d’espèce modèle de pathologies humaines.
Gli stili APA, Harvard, Vancouver, ISO e altri
36

LEONE, Massimo. "L’idéologie sémiotique des deepfakes". Images, mensonges et algorithmes. La sémiotique au défi du Deep Fake 11, n. 2 (26 luglio 2022). http://dx.doi.org/10.25965/interfaces-numeriques.4847.

Testo completo
Abstract (sommario):
L’article promeut une philosophie de la communication orientée sémiotiquement, capable de détecter les idéologies du sens qui sous-tendent les technologies de l’échange symbolique. Leur évolution au cours de l’histoire implique des changements importants en ce qui concerne la rhétorique du faux. Il s’agit d’un élément constitutif de l’espèce humaine, dont les conditions sont pourtant radicalement modifiées par le numérique et l’essor de l’intelligence artificielle. L’article se concentre sur l’idéologie sémiotique des réseaux adverses génératifs et leurs conséquences en termes de production et de réception des deepfakes. Ces nouveaux produits textuels, perturbants, sont le plus souvent considérés comme divertissants ; pourtant, conclut l’article, ce n’est qu’une question de temps avant que les humains ne soient incapables de les détecter. La sémiotique est donc appelée à se concentrer d’urgence sur la « crise épistémologique » que les progrès du faux numérique sont susceptibles d’engendrer.
Gli stili APA, Harvard, Vancouver, ISO e altri
37

Norrenberg, Michelle, e Olivier Lheureux. "La tomographie par impédance électrique : un outil précieux pour le clinicien". Médecine Intensive Réanimation, 12 agosto 2020. http://dx.doi.org/10.37051/mir-00023.

Testo completo
Abstract (sommario):
La tomographie par impédance électrique (TIE) est une technique d’imagerie non invasive, facilement utilisable au chevet du patient qui permet d’obtenir une évaluation dynamique de la ventilation pulmonaire ainsi qu’une analyse fonctionnelle de régions pulmonaires distinctes. Les variations d’impédance sont mesurées en appliquant un courant alternatif de faible intensité (5mA, 50-70 Hz) au travers d’électrodes placées sur une ceinture positionnée au niveau de la cage thoracique du patient. Les images reconstruites à l’écran sont soit statiques soit dynamiques et représentent la distribution de conductivité à un instant donné ou la variation de la distribution de conductivité entre deux instants. Elles permettent au clinicien d’apprécier en temps réel le degré d’homogénéité de la ventilation et de détecter d’éventuelles asynchronies ventilatoires. Pratiquement, la TIE permet de quantifier les variations régionales d’impédance pulmonaire en fin d’expiration qui seraient en étroit rapport avec les variations de volume de fin d’expiration.Elle offre également la possibilité de mesurer la variation d’impédance à chaque cycle respiratoire, la compliance régionale du système respiratoire, d’évaluer les zones de collapsus, d’atélectasies ou de surdistension, de calculer le centre de ventilation ou encore l’indice de retard régional de ventilation. Elle permet donc de surveiller la ventilation en temps réel et en continu et d’apprécier les répercussions de différents réglages de la ventilation mécanique (titration de la PEEP…) ou de manœuvres à visée thérapeutique sur la ventilation régionale.
Gli stili APA, Harvard, Vancouver, ISO e altri
38

Khemis, Sabri Ben. "Mesure térahertz de faibles épaisseurs et détection de défauts aux interfaces pour les revêtements industriels : Avancées et applications". e-journal of nondestructive testing 28, n. 9 (settembre 2023). http://dx.doi.org/10.58286/28483.

Testo completo
Abstract (sommario):
Guidée par une recherche continue de performance de production, de qualité de fabrication et de réduction des coûts, l’industrie utilise de manière croissante de nouveaux revêtements techniques, hybrides, multifonctionnels, assurant des fonctions critiques (anticorrosion, protection contre les impacts de foudre, blindage, furtivité…). Ces revêtements sont souvent conçus pour optimiser des propriétés thermiques, électromagnétiques, électriques, mais aussi acoustiques ou mécaniques. Leur complexité peut être plus ou moins importante avec la possibilité d’ajouter des fonctions supplémentaires selon leur cadre d’utilisation, comme par exemple l’utilisation en conditions extrêmes. L’aptitude des technologies THz pour la mesure d’épaisseur de revêtements a déjà été démontrée dans de nombreuses publications et en environnement industriel. Les gammes de mesure, la précision ainsi que la cadence d’acquisition et de traitement sont compatibles avec une grande partie des applications industrielles. Le capteur développé par Terakalis est rapide, sans contact et adapté au travail sur des pièces avec des surfaces complexes et de grandes dimensions. Il permet de déterminer l'épaisseur de chaque couche d’un revêtement multicouche et offre des avantages significatifs par rapport aux techniques existantes. Il est par exemple possible de : • Mesurer des épaisseurs multicouches très fines (à partir de 10μm), sur tous types de substrats (métalliques, composites, céramiques…), de manière rapide pour des cartographies, • Détecter des départs de corrosion sur substrat métallique sous le revêtement, • Détecter des défauts de cohésions entre le revêtement et le substrat (délaminations), • Mesurer les épaisseurs de revêtements même humides (gain de temps, détection plus rapide d’éventuels défauts). Cette technologie représente une rupture majeure pour le contrôle de la qualité et des processus dans l'application de peinture et offre des avantages économiques et environnementaux. Lors de cette communication, TERAKALIS, société spécialisée en fabrication d’équipements THz, présentera le principe des ondes TeraHertz, les principales méthodes de mesure, un état de la maturité des systèmes THz actuels avec leurs performances et limites pour la mesure de faibles épaisseurs et la détection de défauts dans les revêtements fins (<1mm) et aux interfaces. Elle s’appuiera sur des cas applicatifs en guise d’illustration.
Gli stili APA, Harvard, Vancouver, ISO e altri
39

Anctil, François, e Geneviève Pelletier. "Analyse en ondelettes de fluctuations de débit en réseau de distribution d’eau potable". 24, n. 1 (1 aprile 2011): 25–33. http://dx.doi.org/10.7202/045825ar.

Testo completo
Abstract (sommario):
Ce travail évalue la pertinence d’une analyse en ondelettes appliquée à la consommation en eau potable, afin d’établir les habitudes de consommation des usagers et de détecter des changements. Cette démonstration exploite une série d’observations de débit au pas de temps horaire, couvrant une période de dix semaines dont le congé des Fêtes de fin d’année, tirée du réseau de distribution d’eau potable de la ville de Québec, Canada. Les résultats confirment la non-stationnarité du débit pour la gamme de périodes à l’étude, soit de 2 à 256 heures. Le principal cycle, qui explique la moitié de la variance naturelle de la série, possède une période de 24 heures dont l’intensité non stationnaire décrit un cycle de sept jours avec des pointes le dimanche matin et des creux au coeur de la semaine de travail. Le second cycle, responsable de plus du tiers de la variance, possède une période de 12 heures dont l’intensité suit également (mais un peu moins clairement) un cycle de sept jours avec des pointes la semaine et des creux le week-end. Ce comportement diffère pendant le congé des Fêtes de fin d’année, lorsque presque toute la variance naturelle est expliquée par la composante 24 heures de la série.
Gli stili APA, Harvard, Vancouver, ISO e altri
40

Bouteille, Patrick, e Filipe da Rocha. "L’automatisation de la thermographie inductive en remplacement de la magnétoscopie et du ressuage". e-journal of nondestructive testing 28, n. 9 (settembre 2023). http://dx.doi.org/10.58286/28511.

Testo completo
Abstract (sommario):
Aujourd’hui, un nouveau pas est franchi dans l’industrialisation de la thermographie infrarouge par induction ! Automatisation, robotisation, sanction automatique, intelligence artificielle peuvent être associées à cette méthode de contrôle pour réaliser un contrôle 4.0. Les derniers développements réalisés par le CETIM ont abouti à la mise en place d’ilots de contrôle automatisé ou robotisé en production avec une détection automatique des défauts de surface. Un temps de cycle de quelques secondes, un fonctionnement 24h/24, des centaines de milliers de pièces contrôlées, voici les principaux atouts de ces machines industrielles qui permettent de détecter les défauts de surface et d’assurer une sanction sans l’intervention d’un opérateur grâce à un traitement d’images adapté. Le CETIM a démontré depuis plusieurs années que la thermographie infrarouge avec une excitation par induction permet de mettre en évidence des défauts de surface débouchants ou sous-jacents sur produits métalliques, magnétiques ou non (replis de forge, tapures de trempe, criques de rectification, défauts de soudage…). L’absence de produits chimiques et l’automatisation possible du contrôle et de la sanction rendent cette méthode particulièrement intéressante pour tout contrôle en production en alternative au contrôle par ressuage et par magnétoscopie. Elle est particulièrement bien adaptée pour les pièces forgées, la boulonnerie, les pièces soudées, les engrenages…
Gli stili APA, Harvard, Vancouver, ISO e altri
41

Mafille, Yannick, Quentin Julien, Antoine Valentin e Patrick Bouteille. "L’IA au service du contrôle par magnétoscopie et par ressuage". e-journal of nondestructive testing 28, n. 9 (settembre 2023). http://dx.doi.org/10.58286/28464.

Testo completo
Abstract (sommario):
Dans le cadre de son activité collective destinée à ses cotisants mécaniciens, le CETIM a réalisé une étude de l’utilisation de l’IA (machine learning) pour une sanction automatique des contrôles par magnétoscopie fluorescente. En effet, les systèmes automatiques classiques basés sur la vision atteignent leurs limites dans le cas de fausses indications liées aux méthodes de contrôle par magnétoscopie et ressuage. Un démonstrateur nomade a été réalisé pour permettre aux industriels de découvrir et d’évaluer sur leur production, les performances de la technologie IA pour la détection automatique par Intelligence Artificielle de défauts décelés par magnétoscopie fluorescente. Cette technologie est transposable à d’autres méthodes CND comme le ressuage fluorescent. Ce démonstrateur automatisable comprend 4 modes de fonctionnement permettant d’illustrer la démarche IA appliquée aux CND : acquisition d’images, annotation des images (classification, détection d’objet, segmentation), entrainement d’algorithmes de Machine Learning et contrôle en temps réel. Les travaux ont été réalisés sur 4 types de pièces forgées (bielles, vilebrequins, moyeux de roue et tulipes de transmission) mises à disposition par les industriels, mais sont transposables à d’autres types de pièces. Les algorithmes entrainés permettent de détecter automatiquement les défauts décelés par magnétoscopie fluorescente. L’étude a montré que l’IA est une technologie aujourd’hui accessible pouvant répondre aux besoins des industriels pour fiabiliser et automatiser les contrôles actuels. Ce démonstrateur est aujourd’hui présenté comme un assistant aux contrôleurs CND.
Gli stili APA, Harvard, Vancouver, ISO e altri
42

Kergosien, Nina, Ludovic Gavérina, Guillemette Ribay, Florence Saffar, Pierre Beauchêne, Olivier Mesnil e Olivier A. Bareille. "Etude expérimentale d'un système de contrôle santé intégré dans un composite aéronautique pour la détection de défauts par ondes guidées". e-journal of nondestructive testing 28, n. 9 (settembre 2023). http://dx.doi.org/10.58286/28532.

Testo completo
Abstract (sommario):
L’utilisation des méthodes de contrôle nondestructif (CND) est essentielle pour assurer l’intégrité des structures aéronautiques, et les systèmes de contrôle santé intégré des structures (SHM) offrent la possibilité de surveiller en temps réel l’état des structures ou de contrôler des pièces difficiles d’accès. Les matériaux composites, de plus en plus utilisés pour la fabrication des aéronefs, permettent d’intégrer des systèmes SHM directement à coeur du matériau. L’étude se concentre sur l’intégration d’un transducteur piézoélectrique (PZT) à coeur du composite stratifié. L’intégrité du PZT intégré est vérifiée par radiographie X, et sa capacité d’émission et de réception des ondes ultrasonores guidées est vérifiée avec un banc de vibrométrie laser et des essais pitch-catch. Les résultats montrent que l'intégration du PZT à coeur du composite est réussie, et que le système SHM intégré est capable de générer et détecter des ondes ultrasonores guidées. Les paramètres optimaux pour réaliser un essai de détection de défauts sont ensuite déterminés. L’amplitude des ondes de flexion est favorisée par un positionnement du PZT intégré près de la surface du composite. De plus, la fréquence d'excitation optimale du PZT est déterminée pour permettre une détection efficace des défauts. Les résultats ouvrent la voie à l'utilisation de cette méthode pour assurer la surveillance et la maintenance des structures aéronautiques de manière fiable et plus efficace. 1.
Gli stili APA, Harvard, Vancouver, ISO e altri
43

Lantz, Göran, Laurent Spinelli, Rolando Grave de Peralta Menendez, Margitta Seeck e Christoph M. Michel. "Localisation de sources distribuées et comparaison avec PIRM fonctionnelle". Epileptic Disorders 3, SP1 (dicembre 2001). http://dx.doi.org/10.1684/j.1950-6945.2001.tb00411.x.

Testo completo
Abstract (sommario):
RÉSUMÉ Cet article détaille l'utilisation des algorithmes de localisation des sources électriques distribuées dans le cadre d'un bilan pré‐chirurgical pour des patients épileptiques pharmaco‐résistants. Contrairement au modèle de type dipôle équivalent, les méthodes de localisation de sources distribuées permettent de déterminer une zone d'activation comme on en trouve souvent en épilepsie. Les techniques utilisées ici reposent sur des algorithmes linéaires de résolution du problème inverse. De ce fait elles sont moins enclines à produire des erreurs de localisation lorsque l'espace de solution est contraint sur la matière grise de chacun des patients. Nous proposons trois solutions pour augmenter la résolution spatiale de ces reconstructions de sources à fin de pouvoir distinguer plusieurs sources distinctes au sein d'un même lobe. La première est l'augmentation du nombre d'électrodes au‐delà de 100, la seconde est l'utilisation des méthodes linéaires de haute exactitude pour détecter des sources focales (EPIFOCUS) et la troisième est la combinaison des reconstructions de sources électriques avec les activations relevées par l'IRMf déclenchée par l'EEG. Cette dernière approche est très importante car elle permet d'ajouter aux activations hémodynamiques relevées par l'IRMf une information temporelle et donc de différencier le foyer primaire des sites de propagation. Les techniques de localisations de sources peuvent s'appliquer aux données ictales et inter‐ictales. Dans le cas de l'EEG ictal, nous recherchons, dans un premier temps, à déterminer la ou les fréquences qui apparaissent au début des crises puis nous reconstruisons les générateurs responsables de ces fréquences caractéristiques.
Gli stili APA, Harvard, Vancouver, ISO e altri
44

FALL, Ahmedou Bamba Koueimel, Moussa DIOP, Mouhamed SIDY, Saer DIALLO e Oumar THIOUNE. "Revue Annuelle Produit : du Gardénal 50mg De Winthrop Pharma Sénégal / Groupe Sanofi". Journal Africain de Technologie Pharmaceutique et Biopharmacie (JATPB) 2, n. 3 (20 dicembre 2023). http://dx.doi.org/10.57220/jatpb.v2i3.128.

Testo completo
Abstract (sommario):
Introduction. La revue annuelle de la qualité des produits (RAQP), exigence internationale pour les formes finies et les substances actives, est particulièrement scrutée lors d’inspections et d’audits. Elle s'apparente à une validation rétrospective continue permettant de détecter toute dérive et de s’assurer de la fiabilité des procédés et de la qualité des produits. La RAQP du Gardénal 50mg (Phénobarbital) fabrique sur le site de Dakar en boite de 30 comprimes a porté sur cinq (5) lots Matériels et méthodes. L’évaluation des OOS/OOT a suivi la procédure CQ PRO 015. Les fiches de déclaration des résultats hors tendance ou non conformes obtenus lors de l’analyse au laboratoire, la description et la cause d’anomalie, le numéro de la déviation correspondante et de suivi des plans d’actions correctives et préventives (CAPA) ont été renseignées. Résultats. Les rendements, de 82,22-88,05%, étaient inférieurs à 98%. L’évaluation du poids moyen a montré des résultats conformes : 86.695-88.245 mg, pour une valeur cible de 87.500 mg. Les temps de désagrégation étaient conformes (60-637 sec), en dessous de la limite maximale de 900 sec. Il en a été de même pour le titre en Phénobarbital avec des résultats conformes de 47,80-50,80 mg/cp (moyenne 49,21 mg/cp). Deux déviations impactant deux lots ont été notées, respectivement, sur le dosage en principe actif pour le lot 2, le temps de désagrégation in process et le test de dissolution pour le lot 3 occasionnant son rejet après retraitement. Le lot 2 a fait l’objet d’une fiche OOT. Discussion. Quatre lots ont été libérés dans les 19 à 50 jours suivants leur fabrication. Huit actions correctives et préventives ont été clôturées à 100 % dans les délais. Seul le lot 3 a été rejeté après retraitement, suite à une dissolution non conforme 61% (limite 75%). Aucun lot n’a fait l’objet de réclamation, de rappel ou de retour. L’étude permet d’affirmer que le produit détient les qualités attribuées : l’évaluation du dosage en principe actif, des paramètres critiques in process, des paramètres de libération disponibles a donné des résultats conformes. Le process de fabrication a été validé.
Gli stili APA, Harvard, Vancouver, ISO e altri
45

BRUSTEL, Hervé, Yoan BRAUD, Nicolas GOUIX, Camille GAZAY, Thierry NOBLECOURT, Lionel VALLADARES, Vincent VIGNON e Julien TOUROULT. "Proposition de protocoles pour la surveillance de l’état de conservation de sept coléoptères saproxyliques de la Directive Habitats-Faune-Flore". Naturae, n. 7 (10 settembre 2019). http://dx.doi.org/10.5852/naturae2019a7.

Testo completo
Abstract (sommario):
La Directive Habitats-Faune-Flore (DHFF) prévoit un suivi dans le temps de l’état de conservation des espèces d’intérêt communautaire. En France, cette surveillance reste peu développée pour les invertébrés. Des protocoles nationaux sont proposés pour sept espèces de coléoptères saproxyliques rares ou à caractère « parapluie » : Stephanopachys linearis (Kugelann, 1792) et Stephanopachys substriatus (Paykull, 1800) (Bostrichidae), Cerambyx cerdo Linnaeus, 1758 et Rosalia alpina (Linnaeus, 1758) (Cerambycidae), Osmoderma eremita (Scopoli, 1763) (Trichiinae), Limoniscus violaceus (P.W.J. Müller,1821) (Elateridae) et Rhysodes sulcatus (Fabricius, 1787) (Rhysodinae). La DHFF définit quatre paramètres d’état de conservation : l’aire de répartition, la taille des populations, l’habitat d’espèce et les perspectives futures. À partir de la littérature sur l’écologie et la conservation de ces espèces et de l’expertise des auteurs sur les populations françaises, la réflexion a porté sur des protocoles économiquement et techniquement réalistes pour effectuer une veille à large échelle. Pour ces espèces rares et discrètes, les mesures directes des tailles de populations ne paraissent pas opérationnelles. Il est proposé de confirmer l’occupation des sites (voire de détecter de nouvelles localités) et de suivre les micro-habitats clés de chacune de ces espèces. Ce focus sur l’habitat d’espèce doit permettre de faire le lien avec les pressions et les mesures de gestion. Un recours à la modélisation et aux observatoires participatifs est envisagé pour préciser la distribution de certaines espèces. Il est préconisé de mobiliser des statistiques de l’inventaire forestier national en les affinant à l’échelle de la distribution de chaque espèce. Un tableau résume les propositions pour chaque espèce : paramètres visés, plan et unités d’échantillonnage, techniques et matériel, périodes favorables, possibilité d’impliquer les gestionnaires, périodicité des relevés, types d’indicateurs, éléments de coûts et perspectives de recherche.Ces propositions sont discutées en termes de moyens nécessaires et au regard des rares protocoles disponibles dans les pays concernés par ces espèces, notamment en Italie.
Gli stili APA, Harvard, Vancouver, ISO e altri
46

Jean-Marc THIRION, undefined, Julie VOLLETTE, Jérôme LAFFITE e Marc CHEYLAN. "Mise en place d’un suivi à long terme des populations de Lézard de Bonnal Iberolacerta bonnali (Lantz, 1927) dans le Parc national des Pyrénées : méthodologie retenue, faisabilité et premiers résultats". Naturae 2024, n. 6 (27 marzo 2024). http://dx.doi.org/10.5852/naturae2024a6.

Testo completo
Abstract (sommario):
Endémique des Pyrénées, le Lézard de Bonnal Iberolacerta bonnali (Lantz, 1927) est une espèce d’importance majeure pour le Parc national des Pyrénées (PNP), qui détient près de 40 % de sa distribution mondiale. Le changement climatique constitue une menace avérée pour cette espèce, inféodée aux milieux rocheux des étages alpins et subalpins de la chaîne. À la demande du PNP, un protocole de suivi à long terme a été mis en place pour évaluer, dans le futur, l’évolution spatiale et temporelle des populations. Pour cela, 123 placettes de 1000 m² en moyenne ont été positionnées dans 11 secteurs d’étude, couvrant une bonne partie de la distribution spatiale et altitudinale française de l’espèce. Ces placettes ont été prospectées trois fois 15 minutes par un ensemble d’observateurs durant la saison d’activité des lézards, en appliquant la méthode du N-Mixture proposée au début des années 2000 par MacKenzie, Royle & Nichols. Le temps de détection d’un individu sur les placettes occupées par le Lézard de Bonnal est court (en moyenne de 4,18 min) ce qui valide le choix de restreindre les trois visites à 15 min de prospection. La modélisation des facteurs influençant l’abondance du Lézard de Bonnal montre que certaines caractéristiques jouent un rôle de premier plan : taille des blocs, abondance de la strate herbacée, nature de la roche et présence du Lézard des murailles Podarcis muralis (Laurenti, 1768). Elle permet d’estimer un taux d’occupation moyen de l’ordre de 0,81 et une probabilité moyenne de détecter l’espèce comprise entre 0,76 et 0,85. Les deux années de test montrent que la méthode est bien adaptée aux objectifs poursuivis ainsi qu’aux contraintes matérielles formulées par le PNP. Le protocole mis en place sera reconduit par le PNP tous les cinq ans. Cette périodicité devrait permettre d’évaluer l’évolution des populations de Lézard de Bonnal sur le plan spatial et temporel, en réponse aux effets du changement climatique et à la progression du Lézard des murailles aux altitudes basses de sa distribution.
Gli stili APA, Harvard, Vancouver, ISO e altri
47

Bouchard, Mathieu, Olivier Bellavance e Louis-Daniel Théroux. "Techniques avancées par courants de Foucault multi-éléments pour l’inspection de soudures orbitales". e-journal of nondestructive testing 28, n. 9 (settembre 2023). http://dx.doi.org/10.58286/28529.

Testo completo
Abstract (sommario):
Les récentes avancées en matière de contrôle par courants de Foucault multi-éléments (eddy current array: ECA) ont considérablement élargi la gamme de composants et de structures qui peuvent être inspectés pour la détection de défauts de surface. L'un des grands avantages de cette technologie est sa capacité à s'adapter à divers matériaux et géométries. Passant des pipelines en acier carbone jusqu’aux soudures par friction-malaxage en aluminium, les courants de Foucault multi-éléments sont utilisés comme remplacement de la magnétoscopie et du ressuage dans un large éventail d'applications industrielles pour la détection de fissures et de discontinuités en surface ou proches de la surface. En transmettant et en recevant des signaux les uns avec les autres, les capteurs ECA permettent des performances de détection inégalées par les sondes traditionnelles à un seul élément. L'ECA est également beaucoup plus rapide, moins dépendant de l'opérateur et plus facile à automatiser. Un avantage moins connu des courants de Foucault est leur capacité à pénétrer les surfaces non ferromagnétiques et à être sensibles aux défauts sous la surface qui sont autrement invisibles par inspection visuelle. En contrôlant la taille et l'impédance des capteurs, la fréquence des courants et le modèle de multiplexage, il devient possible d'inspecter les deux côtés d'une paroi conductrice mince au cours d'une seule inspection. Cela s'avère particulièrement utile pour l'évaluation des tubes à parois minces contenant divers fluides, qui ne sont souvent accessibles que de l'extérieur. Cet article traite de l'inspection des tubes à paroi mince utilisés comme conduites d'alimentation et conduites hydrauliques dans les avions et les engins spatiaux. Ces conduites de petit diamètre sont souvent situées dans des zones à accès limité, où elles sont assemblées par soudage orbital automatisé. Même avec un processus de soudage hautement contrôlé, de petites fissures et porosités peuvent être présentes dans le joint et finir par se propager, entraînant des fuites de carburant et la potentielle défaillance des systèmes de propulsion. Un système ECA a été mis au point pour l’inspection circonférentielle rapide de ces soudures orbitales, ce qui permet de détecter les défauts en quelques secondes seulement. Cette solution représente un gain de temps considérable comme remplacement de la radiographie et du ressuage, qui sont actuellement les méthodes de choix pour cette inspection.
Gli stili APA, Harvard, Vancouver, ISO e altri
48

Van der Linden, Bruno. "Numéro 114 - septembre 2014". Regards économiques, 12 ottobre 2018. http://dx.doi.org/10.14428/regardseco.v1i0.14563.

Testo completo
Abstract (sommario):
Imposer des «services à la communauté» en contrepartie de l'octroi d'indemnités de chômage est une idée évoquée par certains partis autour de la table de négociation du gouvernement fédéral. Le journal Le Soir, notamment, y consacrait une double page dans son édition imprimée du 21 août dernier. Que penser de cette idée ? Au terme d'une analyse de ses conséquences, il est recommandé de l'abandonner. Ce type de dispositif est connu internationalement sous le nom de workfare. Il se conçoit comme un travail obligatoire à temps partiel non souhaité par les chômeurs, qui permet avant tout à l'assurance-chômage de détecter les chômeurs volontaires. Le refus de participer au workfare serait en effet interprété comme un manque de disponibilité à l'égard du marché du travail et sanctionné. Il est possible que la situation des chômeurs involontaires, soit ceux qui cherchent de l'emploi et sont disponibles pour travailler, s'améliore. Pour cela, il faut que les économies dégagées en excluant de l'indemnisation les chômeurs volontaires soient utilisées pour relever le niveau des indemnités de chômage. Toutefois, les services publics de l'emploi ont déjà d'autres instruments pour constater le chômage volontaire. Les chômeurs belges sont soumis à des exigences croissantes en termes d'effort de recherche d'emploi et d'acceptation d'un emploi jugé «convenable». Le contrôle de cet effort et l'envoi individualisé d'offres d'emploi s'inscrivent dans la logique d'une assurance-chômage. L'introduction du workfare présente en revanche une rupture puisqu'il ne s'agit pas d'offrir un emploi convenable mais une occupation dans des «services à la communauté». S'il s'adresse à des personnes qui ont perdu les habitudes d'une vie professionnelle, le workfare pourrait aider à les retrouver et donc à se réinsérer à terme sur le marché du travail. Les services publics de l'emploi ont à nouveau déjà d'autres outils pour cela, comme les formations professionnelles par exemple. Si les «services à la communauté» améliorent les conditions d'existence du reste de la société, cette contribution peut avoir une valeur supérieure à l'usage du temps correspondant par les chômeurs en l'absence de workfare. Cependant, plus le workfare comportera une contribution à la production de biens et de services, plus grand est le risque qu'il se substitue à de l'emploi standard. Un programme de workfare nécessite en outre tout une organisation, un encadrement et un contrôle des personnes en workfare. Tout ceci absorbe des ressources. On pourrait avancer que certaines personnes sans emploi se sentiraient valorisées si elles pouvaient offrir une contrepartie à leur indemnité. Si tel est le cas, la réponse est de rendre cela davantage possible que ce ne l'est pour le moment, pas, nous semble-t-il, de l'imposer. Enfin, s'il est vrai que la société belge a maintenu dans l'assurance-chômage des personnes qui n'ont plus toutes les caractéristiques du chômeur telles que définies par le Bureau International du Travail, la responsabilité collective de cette réalité est généralement énorme comparée à la responsabilité individuelle. La réponse à ce problème extrêmement délicat ne se trouve pas dans l'imposition d'une «occupation», fût-elle un «service à la communauté».
Gli stili APA, Harvard, Vancouver, ISO e altri
49

Van der Linden, Bruno. "Numéro 114 - septembre 2014". Regards économiques, 12 ottobre 2018. http://dx.doi.org/10.14428/regardseco2014.09.01.

Testo completo
Abstract (sommario):
Imposer des «services à la communauté» en contrepartie de l'octroi d'indemnités de chômage est une idée évoquée par certains partis autour de la table de négociation du gouvernement fédéral. Le journal Le Soir, notamment, y consacrait une double page dans son édition imprimée du 21 août dernier. Que penser de cette idée ? Au terme d'une analyse de ses conséquences, il est recommandé de l'abandonner. Ce type de dispositif est connu internationalement sous le nom de workfare. Il se conçoit comme un travail obligatoire à temps partiel non souhaité par les chômeurs, qui permet avant tout à l'assurance-chômage de détecter les chômeurs volontaires. Le refus de participer au workfare serait en effet interprété comme un manque de disponibilité à l'égard du marché du travail et sanctionné. Il est possible que la situation des chômeurs involontaires, soit ceux qui cherchent de l'emploi et sont disponibles pour travailler, s'améliore. Pour cela, il faut que les économies dégagées en excluant de l'indemnisation les chômeurs volontaires soient utilisées pour relever le niveau des indemnités de chômage. Toutefois, les services publics de l'emploi ont déjà d'autres instruments pour constater le chômage volontaire. Les chômeurs belges sont soumis à des exigences croissantes en termes d'effort de recherche d'emploi et d'acceptation d'un emploi jugé «convenable». Le contrôle de cet effort et l'envoi individualisé d'offres d'emploi s'inscrivent dans la logique d'une assurance-chômage. L'introduction du workfare présente en revanche une rupture puisqu'il ne s'agit pas d'offrir un emploi convenable mais une occupation dans des «services à la communauté». S'il s'adresse à des personnes qui ont perdu les habitudes d'une vie professionnelle, le workfare pourrait aider à les retrouver et donc à se réinsérer à terme sur le marché du travail. Les services publics de l'emploi ont à nouveau déjà d'autres outils pour cela, comme les formations professionnelles par exemple. Si les «services à la communauté» améliorent les conditions d'existence du reste de la société, cette contribution peut avoir une valeur supérieure à l'usage du temps correspondant par les chômeurs en l'absence de workfare. Cependant, plus le workfare comportera une contribution à la production de biens et de services, plus grand est le risque qu'il se substitue à de l'emploi standard. Un programme de workfare nécessite en outre tout une organisation, un encadrement et un contrôle des personnes en workfare. Tout ceci absorbe des ressources. On pourrait avancer que certaines personnes sans emploi se sentiraient valorisées si elles pouvaient offrir une contrepartie à leur indemnité. Si tel est le cas, la réponse est de rendre cela davantage possible que ce ne l'est pour le moment, pas, nous semble-t-il, de l'imposer. Enfin, s'il est vrai que la société belge a maintenu dans l'assurance-chômage des personnes qui n'ont plus toutes les caractéristiques du chômeur telles que définies par le Bureau International du Travail, la responsabilité collective de cette réalité est généralement énorme comparée à la responsabilité individuelle. La réponse à ce problème extrêmement délicat ne se trouve pas dans l'imposition d'une «occupation», fût-elle un «service à la communauté».
Gli stili APA, Harvard, Vancouver, ISO e altri
50

Antonini, Thierry. "Contrôle automatisé de matériaux hétérogènes par imagerie TeraHertz". e-journal of nondestructive testing 28, n. 9 (settembre 2023). http://dx.doi.org/10.58286/28524.

Testo completo
Abstract (sommario):
Les matériaux hétérogènes sont utilisés dans l’industrie notamment pour alléger les structures ou renforcer certaines propriétés mécaniques ou chimiques propres à chacun des matériaux combinés tout en visant l’optimisation des cycles de production. Ils peuvent être déclinés sous la forme d’assemblages collés ou soudés ou sous forme de composites. Ils répondent à des enjeux de plus en plus élevés dans des secteurs exigeants comme l’aérospatial, la défense, les transports ou l’énergie. En raison de la complexité de leurs procédés de fabrication et d’un retour d’expérience limité sur ces matériaux en exploitation, ces derniers nécessitent des moyens de contrôle avancés permettant de détecter leurs défauts internes ou d’évaluer les propriétés internes qui pourraient notamment affecter leurs performances que ce soit au stade de la production ou en cours d’exploitation. Les matériaux assemblés peuvent être affectés par différents types de défaut, cohésif ou adhésif, tels que des porosités dans la colle, des défauts de polymérisation, des mauvaises transformations de la matière chauffée ou encore des décollements. Pour les matériaux composites, dans le cadre de leur production, il s’agit notamment de défauts d’imprégnation, de défauts d’alignement ou d’orientation des fibres alors qu’en cours d’exploitation, plutôt de délaminations ou de perte d’épaisseur. De ce fait, la possibilité d’apporter des garanties supplémentaires sur les performances de ces matériaux en s’appuyant sur un contrôle de leur volume intérieur, suscite un intérêt grandissant pour les techniques de contrôle non destructif et rapide pour qualifier 100% des produits en production et de suivre le vieillissement de ces matériaux en exploitation. Dans ce cadre, la technologie d’imagerie THz, méthode de contrôle non destructif rapide, sans contact et portative, est une solution prometteuse. Basée sur de nouvelles ondes électromagnétiques, appelées THz, elle associe une capacité de pénétration importante dans la plupart des matériaux diélectriques (i.e. non conducteurs), comme les polymères, élastomères et céramiques, avec une forte sensibilité de détection des hétérogénéités de la matière et de leur anisotropie en proposant une capacité de résolution d’imagerie compatible avec la taille des défauts courants recherchés par le monde industriel. Une technique d’imagerie THz innovante en mode réflexion ou transmission permet notamment de réaliser des cartographies 2D de leurs hétérogénéités en temps réel, compatible avec du contrôle à haute cadence sur ligne de production ou pour des pièces de grandes dimensions. Lors de cette communication, TERAKALIS, société spécialisée dans la fabrication d’équipements THz, présentera le domaine des ondes THz, les principales techniques de mesure, un état de la maturité des systèmes THz actuels avec leurs niveaux de performance et limites pour le contrôle de la qualité des assemblages collés ou soudés et aussi des matériaux composites. Elle s’appuiera sur des cas applicatifs automatisés en guise d’illustration dans le cadre de production ou d’exploitation.
Gli stili APA, Harvard, Vancouver, ISO e altri
Offriamo sconti su tutti i piani premium per gli autori le cui opere sono incluse in raccolte letterarie tematiche. Contattaci per ottenere un codice promozionale unico!

Vai alla bibliografia