To see the other types of publications on this topic, follow the link: Mesure en temps réel sur route.

Journal articles on the topic 'Mesure en temps réel sur route'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 40 journal articles for your research on the topic 'Mesure en temps réel sur route.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse journal articles on a wide variety of disciplines and organise your bibliography correctly.

1

Grübel, Rainer Georg. "Во время, вне времени и рядом с временем. Календарное время у Велимира Хлебникова, Даниила Хармса и Владимира Сорокина." Modernités Russes 8, no. 1 (2009): 387–406. http://dx.doi.org/10.3406/modru.2009.1479.

Full text
Abstract:
Cette conférence traite les projets du temps calendaire chez Velimir Chlebnikov, Daniil Charms et Vladimir Sorokin. Au début, le temps calendaire lui-même est mis au point comme tentative en fin de compte trompeuse d’une orientation précisément temporaire de l’homme dans le monde. Au moyen de la coexistence du calendrier grégorien et julien ainsi que de son estimation par Zelinskij («Les principes de construction du calendrier ancien-russe») à l’époque tardive de l’Union Soviétique, la validité relative des calendriers valables est mise en discussion. 1. Pour le temps calendaire Г identité parfaite de la civilisation et de la nature constitue la base du temps calendaire chez Xlebnikov. Le poème de Xlebnikov «(Petit) temps, (petit) caillou» peut servir d’exemple, toutefois ce modèle de base vaut pour les textes à partir de «Bobeobi se chantaient les lèvres» à «Zangézi». La structure de temps de l’artefact y devient la manifestation du «Temps Saint» du monde et le temps devient la mesure du monde. En même temps une arithmétique du temps est élevée au rang d’une algèbre. Puisque le temps des sentiments humains et le rythme des pulsations cardiaques correspondent au rythme des vers, le poète peut aussi prédire ou même provoquer l’avenir. L’étape /le pas de Zangezi dans la tour du temps est le rythme réel de l’univers. L’essai de Xlebnikov «Octobre sur la Néva» se présente dans cette perspective comme le type d’un projet poétique de l’avenir et en même temps de l’époque actuelle, lequel se présente pourtant comme temps vide, comme néant pur en anticipant ainsi la conception du temps de l’Oberiu. 2. Par contre, le temps du calendrier chez Charms est marqué par la confrontation abrupte de la civilisation avec la nature. Là, où la biographie de Xlebnikov est conforme à l’histoire mondiale, la durée de la vie de Charms sort non seulement du calendrier russe, mais aussi du temps mondial. Le rapport de naissance de Charms l’exemplifie tout en demandant la nécessité ď une naissance triple. Au moyen du texte modèle «Période dans l’incubateur» de 1935, la réalisation étymologique du mot calendrier se laisse repasser (calendae - premier jour du mois). Par le doublement des calendriers (religieux versus profanes), la naissance tombe en quelque sorte dans un trou de temps : L’enfant ne peut (sur)-vivre que dans l’incubateur (troisième naissance). La naissance de l’auteur se produit ainsi dans un temps de carnaval, dans lequel l’incongruité du temps cosmique et historique devient perceptible. Le temps calendaire se trouve hors du temps cosmique qui n’est indiqué par aucune horloge. 3. Le conte de Vladimir Sorokin «Le cheval noir avec l’œil blanc» montre un autre modèle de la relation du temps du calendrier et du temps mondial. Ici déjà le calendrier agricole (temps de récolte dans le kolkhoze) et le temps historique (deuxième Guerre Mondiale) se déroulent côte à côte mais sans être liés. L’effondrement du temps naturel sauvage du cycle biologique (cheval sauvage) dans l’ordre du temps apprivoisé du kolkhoze indique une autre coexistence d’ordres chronologiques. Son temps de conte féerique correspondant est exclu du temps de la raison narrative se mesurant à l’ordre chronologique des jours dans le calendrier. Le «tou-jours » de l’éphéméride familier ne touche pas l’unicité de l’entrée de guerre dans le temps raconté. Mais même au niveau historique nous devons mettre en valeur contre Sorokin la coexistence de la perspective du temps soviétique et historique mondial. Le conte se livre à des spéculations sur le préjugé russe que la Deuxième Guerre Mondiale a commencé le 22 juin 1941 avec l’assaut de l’Allemagne nazie sur l’Union soviétique, tandis que conformément à la perception en dehors de la Russie elle a commencé le 1er septembre 1939 avec l’assaut commun de la Wehrmacht et de l’Armée Rouge contre la Pologne. Ainsi, nous retrouvons la coexistence du temps non seulement dans l’intention du texte, mais aussi dans la spéculation du narrateur sur la conscience du lecteur qui préfère, en accord avec le vingtième siècle tardif et avec le début du vingt et unième siècle, la perspective du temps des victimes à celui des coupables.
APA, Harvard, Vancouver, ISO, and other styles
2

Hon, Chun-Yip. "Side-by-Side Comparison of Methods for Environmental Monitoring for Hazardous Drug Contamination." Canadian Journal of Hospital Pharmacy 76, no. 2 (April 3, 2023): 87–93. http://dx.doi.org/10.4212/cjhp.3275.

Full text
Abstract:
Background: Exposure to hazardous drugs is known to have deleterious effects on health care workers. To assess risk, environmental monitoring is conducted to ascertain drug contamination on surfaces, as dermal contact is the main route of exposure. Conventional monitoring employs wipe sampling whereby the wipe must be sent to a laboratory for analysis. This means that quantitative results are not available for some time, during which the risk remains unknown. A new device, the HD Check system, developed by BD, which uses lateral-flow immunoassay technology, allows for near real-time qualitative assessment of contamination (positive or negative); however, its sensitivity relative to the traditional method is unknown. Objective: To evaluate the ability of this novel device to detect drug contamination relative to the conventional method. Methods: Five sets of different known drug concentrations were compared between the conventional wipe sampling method and the HD Check systems for methotrexate (MTX) and cyclophosphamide (CP). Stainless steel surfaces were tested, and the drug concentrations ranged from 0 ng/cm2 to twice the limit of detection (LOD) of each HD Check system. Results: For MTX, positive results were obtained in every test trial at all drug concentrations examined with the HD Check system (LOD = 0.93 ng/cm2). For CP, test results with the HD Check system (LOD = 4.65 ng/cm2) were all positive at the LOD and twice the LOD; however, at 50% and 75% of the LOD, the result was positive in only 90% (9/10) of the trials. The conventional method was able to quantify the test drug concentrations with a high level of accuracy and reproducibility. Conclusions: These results suggest the potential utility of the novel device as a screening tool for higher levels of drug contamination with MTX and CP, but additional research is needed to determine its suitability for lower concentrations, especially of CP. RÉSUMÉ Contexte : L’exposition à des médicaments dangereux est connue pour avoir des effets délétères sur les travailleurs de la santé. Pour évaluer les risques, une surveillance environnementale est menée pour vérifier la contamination des surfaces par les médicaments, car le contact cutané est la principale voie d’exposition. La surveillance conventionnelle utilise un échantillonnage par frottis, lequel doit être envoyé à un laboratoire pour analyse. Cela signifie que les résultats quantitatifs ne sont pas disponibles pendant un certain temps – temps pendant lequel le risque reste inconnu. Un nouvel appareil, le système HD Check de BD, qui utilise la technologie d’immunodosage à flux latéral, permet une évaluation qualitative en temps quasi réel de la contamination (positive ou négative); cependant, sa sensibilité par rapport à la méthode traditionnelle est inconnue. Objectif : Évaluer la capacité de ce nouveau dispositif pour détecter la contamination médicamenteuse par rapport à la méthode conventionnelle. Méthodes : Cinq ensembles de différentes concentrations connues de médicaments ont été utilisés pour comparer la méthode conventionnelle d’échantillonnage par frottis et les systèmes HD Check pour la méthotrexate (MTX) et la cyclophosphamide (CP). Des surfaces en acier inoxydable ont été testées et les concentrations de médicament variaient de 0 ng/cm2 à deux fois la limite de détection (LD) de chaque système HD Check. Résultats : Pour la MTX, des résultats positifs ont été obtenus dans chaque essai à toutes les concentrations de médicament examinées avec le système HD Check (LD = 0,93 ng/cm2). Pour la CP, les résultats des tests avec le système HD Check (LD = 4,65 ng/cm2) étaient tous positifs à la LD et au double de la LD; cependant, à 50 % et 75 % de la LD, le résultat n’était positif que dans 90 % (9/10) des essais. La méthode conventionnelle a été en mesure de quantifier les concentrations de médicament à l’essai avec un niveau élevé de précision et de reproductibilité. Conclusions : Ces résultats suggèrent l’utilité potentielle du nouveau dispositif comme outil de dépistage pour des niveaux plus élevés de contamination médicamenteuse par la MTX et la CP, mais des recherches supplémentaires sont nécessaires pour déterminer son adéquation à des concentrations plus faibles, en particulier de CP.
APA, Harvard, Vancouver, ISO, and other styles
3

Brouilette, Liliane, Claude Felteau, Pierre Lefebvre, and Alain Pelletier. "L’évolution de la situation économique des familles avec enfants au Canada et au Québec depuis 15 ans." Articles 19, no. 2 (March 25, 2004): 241–72. http://dx.doi.org/10.7202/010050ar.

Full text
Abstract:
RÉSUMÉ Cette étude analyse les changements de revenu réel moyen des familles avec enfants avant et après impôts personnels, au Canada et au Québec, sur la période 1971-1987. L'étude montre comment s'est répartie la croissance du revenu réel entre les familles. Elle insiste particulièrement sur les variations du nombre de familles situées sous les seuils de faible revenu et sur l'efficacité des régimes de transferts et de l'impôt personnel dans la lutte contre la pauvreté. Les facteurs qui sont à l'origine de la croissance du revenu familial total sont identifies, notamment la contribution des gains de travail des femmes et ses effets sur la répartition du revenu et sur l'incidence de la pauvreté. Finalement, l'étude mesure les changements du temps parental disponible par famille et par enfant.
APA, Harvard, Vancouver, ISO, and other styles
4

Darras, Lionel. "Acquisition de mesures topographiques appliquée aux prospections géophysiques en milieu couvert." E3S Web of Conferences 342 (2022): 02002. http://dx.doi.org/10.1051/e3sconf/202234202002.

Full text
Abstract:
Connaître la topographie d'un site à étudier avec une prospection géophysique facilite l'interprétation des mesures. Cet article présente une approche de mesure de la topographie d'un site étudié en milieu couvert où le positionnement par GPS est impossible faute de couverture satellitaire en milieu forestier, urbain ou souterrain. Le système de mesure altimétrique "ZheoPS-RTK" a été développé pour acquérir la topographie d'un site avec une précision décimétrique en s'appuyant sur l'utilisation de deux capteurs barométriques, l'un servant à mesurer une altitude de référence et l'autre à mesurer l'altitude du point de mesure souhaité avec correction en temps réel de la dérive calculée par la station de base.
APA, Harvard, Vancouver, ISO, and other styles
5

Stumpf, André, Emmanuel Augereau, Julien Bonnier, Christophe Delacourt, and Eric Delcher. "Mesure des débits par photogrammétrie adaptée aux rivières torrentielles." La Houille Blanche, no. 5-6 (October 2018): 66–74. http://dx.doi.org/10.1051/lhb/2018053.

Full text
Abstract:
Face aux besoins de suivis hydrométriques et compte tenu des limites d'installation de stations de mesure traditionnelles sur les cours d'eau réunionnais à lit mobile et en tresse, l'Office de l'eau Réunion et les universités de Bretagne Occidentale et de La Réunion ont développé un système de mesure automatique des débits par photogrammétrie. Ce système innovant se base sur la mesure des vitesses d'écoulement de surface par la technique de la PIV (Particle Image Velocimetry), sur l'élaboration d'un modèle numérique de terrain du tronçon de mesure et une détection automatique du masque d'eau. Des algorithmes de calcul ont été développés sous MATLAB de manière (i) à traiter une vidéo acquise en temps réel ou pour réaliser des jaugeages à distance et (ii) à convertir un pack de vidéos acquises automatiquement toutes les 30 minutes afin d'obtenir une chronique de débit en continu. Les comparaisons avec les valeurs de débits jaugés ont montré des écarts maximums de 9.0 % après la calibration du système de mesure. Cette technologie, pouvant être autonome en énergie ou raccordée au réseau électrique, ouvre des perspectives intéressantes pour le suivi des cours d'eau complexe ou des phénomènes hydrologiques extrêmes.
APA, Harvard, Vancouver, ISO, and other styles
6

Colas, Maxime, and Michel Deloizy. "Le Model Based Design pour l’apprentissage par conception guidée." J3eA 22 (2023): 1009. http://dx.doi.org/10.1051/j3ea/20231009.

Full text
Abstract:
Cet article présente une démarche d’apprentissage par conception guidée reposant sur des techniques de prototypage rapide dans le domaine mécatronique. La pédagogie développée se veut intégrative et auto-contenue : elle ne nécessite pas de prérequis et apporte au fur et à mesure des besoins, l’ensemble des connaissances et compétences pluridisciplinaires nécessaires à la progression cohérente du projet de conception, tant d’un point de vue mécanique, programmation, qu’en termes de technique de contrôle-commande, le tout dans un volume horaire contraint. La ligne directrice employée vise à confronter de façon permanente, progressive et itérative, modèle simulé et système réel dans un objectif de dimensionnement de partie opérative, de validation de modèle et d’algorithmes de commande en tirant partie d’outils logiciels de contrôle/commande temps-réel, de synthèse de code et de simulation multiphysique.
APA, Harvard, Vancouver, ISO, and other styles
7

Méric, S., F. Nouvel, R. Agarini, T. Bunouf, Q. Guellaen, G. Le Bouhart, M. Meilhat, et al. "Système de surveillance de la qualité de l’air basé sur des capteurs embarqués sur vélo : projet AIR’O X AIR BREIZH." J3eA 21 (2022): 1026. http://dx.doi.org/10.1051/j3ea/20221026.

Full text
Abstract:
Cette communication décrit la réalisation d’un projet étudiant (projet Air’o) destiné au suivi de la pollution de l’air en collaboration avec l’association Air Breizh. Ce projet a été initié pendant l’année universitaire 2019-2020 lors de la 2ème année ingénieur (niveau M1) au sein du département « électronique et télécommunications » de l’INSA de Rennes. Le but du projet est de proposer une mesure de la qualité de l’air par l’intermédiaire de capteurs embarqués sur des vélos. Une transmission de la position du capteur ainsi que la mesure de pollution en temps réel via le réseau LoRaWAN (Long Range Wide-area Network) permet de localiser les niveaux de pollution tout au long du parcours du vélo. Ce suivi de la qualité de l’air s’effectue par la récupération des données (pollution, position) sur un serveur dédié. Une application spécifique est développée afin de situer géographiquement les niveaux de pollution enregistrés. La réalisation d’un prototype est présentée ainsi que la transmission des informations. Des premiers résultats indiquent la pertinence du concept développé.
APA, Harvard, Vancouver, ISO, and other styles
8

Bennis, S., F. Berrada, and F. Bernard. "Méthodologie de validation des données hydrométriques en temps réel dans un réseau d'assainissement urbain." Revue des sciences de l'eau 13, no. 4 (April 12, 2005): 483–98. http://dx.doi.org/10.7202/705404ar.

Full text
Abstract:
L'objectif du présent travail est l'élaboration d'une méthodologie de validation des données hydrométriques mesurées dans un réseau d'assainissement. L'information validée est utilisée aussi bien en temps réel, pour optimiser les consignes de gestion, qu'en temps différé, pour poser le véritable diagnostic et évaluer, sur une base quotidienne, l'efficacité des systèmes d'assainissement. Le principe de base de la méthodologie proposée repose sur la redondance analytique de l'information provenant d'une part de la mesure directe du débit sur le terrain et d'autre part du débit simulé à partir des variables météorologiques. On compare ainsi d'une part, l'écart entre la valeur prévue par un modèle autorégressif (AR) et la valeur mesurée et d'autre part, l'écart entre la valeur prévue par ce même modèle AR et la valeur simulée par un modèle hydrologique. Parmi les valeurs, mesurée et simulée, celle qui se rapproche le plus de la valeur prévue est retenue. Afin de considérer des modèles non stationnaires et d'éviter le biais d'estimation des paramètres de régression par la méthode standard des moindres carrés, le filtre de Kalman est utilisé pour identifier les paramètres du modèle AR. La méthodologie proposée a été testée avec succès sur un bassin urbain de la municipalité de Verdun. L'hydrogramme mesuré a été bruité artificiellement à la fois par un bruit blanc et par un certain nombre de perturbations de grandes amplitudes et de différentes formes. Le processus de validation a permis de retrouver pratiquement les mesures initiales, non bruitées. Les critères de performance introduits sont largement concluants.
APA, Harvard, Vancouver, ISO, and other styles
9

Guersen, J., G. Méchin, V. Chassin, J. Gabrillargues, B. Jean, E. Chabert, B. Pereira, L. Boyer, F. Magnier, and L. Cassagnes. "Dose au cuir chevelu en neuroradiologie interventionnelle : évaluation de la technologie de dosimétrie MOSFET." Radioprotection 53, no. 2 (April 2018): 133–38. http://dx.doi.org/10.1051/radiopro/2018011.

Full text
Abstract:
Objectifs : Évaluer la technologie MOSFET en comparaison avec la technologie des films radiochromiques pour déterminer la dose cutanée maximale reçue par le patient au niveau du cuir chevelu lors d’embolisations vasculaires intra crâniennes. Sensibiliser les opérateurs à l’importance de la dose reçue par les patients avec la visualisation en temps réel de cette valeur que permet la technologie MOSFET. Matériel et méthode : Six patients traités pour un anévrysme intracrânien ont fait l’objet de 24 mesures comparatives de dose par film radiochromique et avec la technologie MOSFET. Résultats : Les dosimètres MOSFET mesuraient la dose ponctuelle au cuir chevelu du patient en temps réel et avec un niveau de précision suffisant, compte tenu du besoin (dose inférieure de 9 % à celle lue par les films dans 54 % des cas et supérieure de 12 % dans 45 % des cas). Néanmoins, il s’agissait de valeurs localisées au point de mesure de chaque dosimètre MOSFET, alors que les films radiochromiques permettaient d’accéder à une cartographie dosimétrique prenant en compte les recoupes et chevauchements des champs d’exposition. Conclusion : La dosimétrie MOSFET, actuellement plus onéreuse, nous apparaissait donc plus indiquée pour des mesures de dose ciblées (e.g. cristallin) ou sur des champs de dose uniforme que pour une recherche systématique de la dose cutanée maximale lors d’embolisations vasculaires intracrâniennes, pour laquelle nous persisterons à utiliser les films radiochromiques.
APA, Harvard, Vancouver, ISO, and other styles
10

Mamavi, Olivier, and Romain Zerbib. "« Promote or perish »." La Revue des Sciences de Gestion N° 309-310, no. 3 (September 27, 2021): 51–56. http://dx.doi.org/10.3917/rsg.309.0052.

Full text
Abstract:
Le Web 2.0 remet progressivement en cause les indicateurs traditionnels d’évaluation de la recherche fondés exclusivement sur les citations à l’instar, notamment, de l’indice de Hirsch (h index). Nous assistons en effet à l’émergence de mesures alternatives d’impact appelées altmétriques. Il s’agit de nouveaux indicateurs de performance permettant de mesurer, en temps réel, l’attention d’une publication en ligne. Notre article, fondé sur une analyse bibliométrique de 837 documents extraits de la base de données Web of Science, a pour objet d’analyser la diffusion de cette nouvelle modalité d’évaluation à haute fréquence au sein de la recherche académique. Le concept des altmétriques est envisagé dans le cadre de cette étude autour de trois enjeux majeurs : la mesure, les usages et son adoption. Nous mettons en évidence le véritable changement de paradigme qu’impliquerait le passage du « publish or perish » (publier ou périr) au « promote or perish » (promouvoir ou périr) dans la manière d’envisager, de mesurer, de conduire et d’appliquer la recherche académique.
APA, Harvard, Vancouver, ISO, and other styles
11

Romand, X., A. Baillet, and B. Favier. "Mesure en temps réel à l’aide de cages connectées du retentissement de l’arthrite sur l’activité physique dans le modèle murin SKG." Revue du Rhumatisme 90 (December 2023): A172—A173. http://dx.doi.org/10.1016/j.rhum.2023.10.262.

Full text
APA, Harvard, Vancouver, ISO, and other styles
12

Afiouni, Nada. "Les carrés musulmans pendant la pandémie de Covid-19." Migrations Société N° 195, no. 1 (March 19, 2024): 87–99. http://dx.doi.org/10.3917/migra.195.0089.

Full text
Abstract:
Cet article analyse, à l’échelon local, la gestion des carrés musulmans au Havre (France) et à Southampton (Royaume-Uni) pendant et après la pandémie de Covid-19. Il interroge les interactions des communautés musulmanes avec les autorités municipales à l’aune du cadre plus large des politiques nationales de gestion de la pluralité culturelle et religieuse. Les données analysées dans le présent article proviennent d’un travail de terrain réalisé dans ces deux villes : entre 2021 et 2022 pour le Havre, et entre 2022 et 2023 pour Southampton. En partant des enjeux communs aux communautés musulmanes concernant le domaine funéraire, cet article interroge la dimension locale des dynamiques entre les acteurs musulmans et les autorités municipales mais également mesure l’impact des politiques nationales de gestion de la pluralité culturelle et religieuse sur le secteur funéraire en temps de pandémie. Ce travail permet de souligner des formes de convergence dans la pratique entre les « modèles » nationaux français et britannique, généralement considérés comme opposés. Au-delà des divergences classiques, l’article souligne un réel décalage entre la perception de la situation funéraire par les communautés religieuses musulmanes et la réalité dans les deux villes.
APA, Harvard, Vancouver, ISO, and other styles
13

Thellier, Karine, Pacôme Renault, and Céline Bareil. "Trajectoire de courage chez les cadres intermédiaires en période de changement." Ad machina, no. 7 (December 18, 2023): 123–43. http://dx.doi.org/10.1522/radm.no7.1661.

Full text
Abstract:
Le courage managérial est une compétence clé chez les cadres intermédiaires, surtout en période de changement. Dans cette étude, nous voulions comprendre comment les cadres intermédiaires interprètent et passent à l’action par des actes courageux. L’analyse des récits permet de constater que les actes de courage se produisent selon une séquence en trois étapes : reconstruction du sens donné au changement par le promoteur, identification et passage à l’acte de courage puis réflexion sur l’acte. De plus, nous avons découvert que le fait de compléter une séquence de courage permet de prendre conscience d’une autre situation risquée, souvent initiatrice d’une séquence de courage éventuelle. Deux trajectoires d’actes de courage ont également émergé : une première où les actes de courage de haut niveau semblent liés à un sens d’appropriation élevée du changement et une deuxième trajectoire où les actes de courage sont de niveau plus modéré et où l’appropriation est en évolution. Ces deux trajectoires permettent d’établir un lien entre le courage et l’appropriation du sens donné au changement. Il est important de noter que les résultats obtenus sont issus d’un échantillon de huit cadres intermédiaires d’une organisation publique opérant le même changement. Des recherches futures pourraient considérer un devis diachronique sur l’évolution des actes de courage en temps réel. Les implications pratiques visent à accompagner et à former les gestionnaires sur l’importance de reconstruire le sens donné au changement pour mieux se l’approprier et à poser des actes courageux au fur et à mesure des défis qu’ils rencontrent.
APA, Harvard, Vancouver, ISO, and other styles
14

Viollet, Stéphane, Nicolas Thellier, Nicolas Thouvenel, Julien Diperi, and Julien R. Serres. "Conception et étude d’une boussole céleste bio-inspirée." J3eA 21 (2022): 2020. http://dx.doi.org/10.1051/j3ea/20222020.

Full text
Abstract:
Cette étude concerne le développement d’une boussole optique inspirée de la boussole céleste de la fourmi du désert Cataglyphis. Cette activité pédagogique vise à comprendre différents phénomènes physiques impliqués dans la détection optique de cap : la diffusion de Rayleigh de la lumière du soleil dans le ciel, la polarisation de la lumière et la mesure du cap à partir de photocapteurs. Nous décrivons ici, de manière successive, la conception puis la réalisation d’un dispositif expérimental d’enseignement utilisé au niveau Master 2 pour permettre aux étudiants de se familiariser avec l’ingénierie bio-inspirée appliquée à la détection optique de cap au moyen d’un capteur non conventionnel. Ce dispositif expérimental a été introduit pour la première fois cette année à des étudiants du Master Ingénierie des Systèmes complexes de l’Université de Toulon et à des étudiants du Master de « Mechanical Engineering » (option Fluide et Structure) de Aix-Marseille université. Nous avons ensuite mis l’accent sur l’utilisation de carte Arduino pour aborder les problématiques liées au traitement temps réel des cibles du type microcontrôleur ayant des capacités calculatoires limitées. Enfin, des exemples de production et de mesures faites par les étudiants sont présentés pour démontrer l’exploitation pédagogique qui peut être faite d’un tel dispositif expérimental.
APA, Harvard, Vancouver, ISO, and other styles
15

Pandard, P., and P. Vasseur. "Biocapteurs pour le contrôle de la toxicité des eaux : application des bioélectrodes algales." Revue des sciences de l'eau 5, no. 3 (April 12, 2005): 445–61. http://dx.doi.org/10.7202/705141ar.

Full text
Abstract:
L'amélioration de la qualité de l'environnement passe par la réalisation de contrôles de toxicité in situ et en continu des sources de pollution ou des milieux contaminés, à l'aide de systèmes automatisés à réponse rapide. Les systèmes donnant une réponse en temps réel permettent d'intervenir immédiatement à la source, d'interrompre le rejet d'un flux toxique et de prévenir ainsi les accidents de pollution. Ce type de stratégie ne peut être développé qu'au moyen de biocapteurs : les méthodes d'essais conventionnelles n'autorisent que des contrôles de toxicité épisodiques, en laboratoire, effectués dans des conditions statiques quelque peu éloignées des conditions dynamiques. Nous nous sommes intéressés à la mesure de l'activité photosynthétique d'algues unicellulaires immobilisées. La photosynthèse induite par des stimuli lumineux est en effet un processus dont la réponse est immédiate et aisément mesurable à l'aide de transducteurs électrochimiques. Il apparaît donc intéressant d'utiliser ces réactions photosynthétiques pour la détection des polluants. Deux dispositifs mesurant l'activité photosynthétique d'algues unicellulaires ont été testés. Le premier dispositif mesure le transfert d'électrons le long de la chaîne photosynthétique lors d'une illumination des micro-organismes. Le second système permet de quantifier la production d'oxygène résultant de cette excitation lumineuse. La mesure du transfert d'électrons photosynthétiques nécessite l'addition d'une substance oxydo-réductible (médiateur) dans le milieu pour capter ces électrons. De la série de médiateurs testés, seuls les dérivés à caractère lipophile (2,6-diméthylbenzoquinone et p-benzoquinone) ont permis de mesurer un transfert d'électrons. Toutefois la durée de vie de ce biocapteur s'est révélée limitée à moins de 24 heures, ce qui exclut toute utilisation en continu. Le second dispositif développé présente en revanche une longévité d'une semaine, ce qui le rend intéressant en vue d'une utilisation in situ. Les performances de ce capteur à oxygène ont été testées sur des produits de type herbicides, cyanures, métaux et comparées aux valeurs obtenues à l'aide de tests algues classiques ou de méthodes de détection rapide de la toxicité.
APA, Harvard, Vancouver, ISO, and other styles
16

Reuter, V., T. Gailard, E. Praet, and J. L. Vasel. "Potentialités des bioélectrodes et des bioréacteurs à biomasse fixée pour l'estimation rapide de la DBO." Revue des sciences de l'eau 9, no. 4 (April 12, 2005): 435–55. http://dx.doi.org/10.7202/705261ar.

Full text
Abstract:
La méthode standard de détermination de la Demande Biochimique en Oxygène (DBO-5 jours par dilutions) présente certains inconvénients bien connus dont celui de ne pas être exploitable pour la gestion en temps réel d'un procédé d'épuration. De ce fait, divers types d'appareils d'estimation rapide de la DBO, basés sur des méthodes respirométriques, ont été imaginés dans le passé et même commercialisés pour certains. Dans cette étude, des appareils d'estimation rapide de la DBO de types bioélectrode et réacteurs à biomasse fixée (écoulement piston et parfaitement mélangé) ont été mis en oeuvre, après avoir été développés ou modifiés sur base de concepts déjà existants. Une attention particulière a été portée sur la validité de ces appareils, la crédibilité de leurs mesures et la définition de leur champ d'action. De par leur principe de fonctionnement (injection en flux), la bioélectrode et le bioréacteur piston sont des appareils qui doivent être calibrés et dont la biomasse immobilisée doit être préalablement adaptée à l'échantillon à analyser. La solution de calibration est essentielle et doit être qualitativement la plus proche possible de l'échantillon à analyser. Le bioréacteur parfaitement mélangé se distingue des deux premières méthodes car il travaille théoriquement en consommation totale du substrat. La méthode ne nécessite pas de calibration mais implique, avant toute mesure de respirogramme, la détermination d'un paramètre supplémentaire, le coefficient de transfert de l'oxygène. De manière générale, la principale conclusion de l'étude réside dans la difficulté de ces appareils à fournir une DO (Demande en oxygène) corrélable à la DBO5 conventionnelle. Leur champ d'application reste en effet limité aux substrats rapidement biodégradables. Leurs potentialités restent cependant conformes aux besoins de contrôle rapide des charges organiques polluantes en entrée et sortie des stations d'épuration.
APA, Harvard, Vancouver, ISO, and other styles
17

PIEL, S., D. NEYENS, A. PENASSO, J. SAINTE-MARIE, and F. SOUILLE. "Modélisation des remontées de chlorures le long d’un fleuve pour une optimisation de la gestion de la ressource." Techniques Sciences Méthodes, no. 12 (January 20, 2021): 33–51. http://dx.doi.org/10.36904/tsm/202012033.

Full text
Abstract:
Le barrage d’Arzal est un ouvrage clé pour la gestion des niveaux sur le bassin de la Vilaine aval et une réserve d’eau douce alimentant la plus importante unité de production d’eau potable de Bretagne. Cette réserve est multi-usage et peut engendrer des conflits complexes à gérer, notamment en période de sécheresse. Le barrage est équipé d’une écluse, entraînant des intrusions d’eau de mer lors des éclusées, et d’un système de siphons, permettant de capter la majeure partie des eaux salées parasites et de les rediriger vers l’estuaire. Cependant, en étiage, une fraction d’eau salée peut remonter dans le plan d’eau et dégrader la qualité de l’eau à la prise d’eau de l’usine. Dans un contexte de changement climatique, les périodes de sécheresse ainsi que les conflits d’usage pourraient devenir plus intenses. L’amélioration des connaissances des phénomènes complexes de diffusion des eaux salées en amont du barrage permettrait de piloter au mieux l’ouvrage, en validant ou identifiant des pratiques de gestion. L’étude de solutions de limitation transitoires « simples » pourrait également permettre d’optimiser cette gestion. Le projet transversal avec quatre parties prenantes (EPTB Vilaine, imaGeau, Saur et Inria), réalisé de 2016 à 2018, a permis de répondre à ces objectifs. Les résultats de cette étude montrent l’importance des outils de mesure de salinité en continu innovants en temps réel pour l’aide à la décision de restrictions de certains usages si la ressource est menacée, via un retour d’expérience sur trois ans de mesures. Il montre également l’utilisation et la valorisation de la donnée, en mode prédictif, via la construction d’un modèle mathématique 3D de diffusion de la salinité, intégrant l’ensemble des ouvrages. La modélisation a également permis de simuler et d’étudier les performances de solutions de limitation des phénomènes de remontées d’eaux salées afin de choisir la mieux adaptée.
APA, Harvard, Vancouver, ISO, and other styles
18

Kouassi, Kouamé Auguste, William Francis Kouassi, Oi Mangoua Jules Mangoua, Philippe Ackerer, Gountôh Aristide Douagui, and Issiaka Savané. "Estimation par approche inverse d'un champ de transmissivité sur l'ensemble de l'aquifère du Continental Terminal (CT) d'Abidjan." Proceedings of the International Association of Hydrological Sciences 384 (November 16, 2021): 49–56. http://dx.doi.org/10.5194/piahs-384-49-2021.

Full text
Abstract:
Abstract. La caractérisation hydraulique des systèmes aquifères est importante pour le développement de scénarios d'exploitation et de stratégies de gestion des eaux souterraines. En particulier dans les aquifères lithologiquement hétérogènes, il ne faut pas négliger les variations de transmissivité (T) à l'échelle locale. Les valeurs de transmissivité à l'échelle locale sont habituellement dérivées d'essais de pompage, mais dans la plupart des cas, leur nombre et leur disponibilité sont plutôt limités. De même, la mesure directe de la transmissivité sur l'ensemble d'un aquifère s'avère onéreux et quasi-impossible techniquement. Dans de telles situations, la modélisation hydrodynamique par approche inverse se présente comme la solution appropriée. Dans cet article, le champ de transmissivité réel de l'aquifère du Continental Terminal (CT) d'Abidjan est recherché par une paramétrisation multi-échelle qui permet de contourner le problème de changement d'échelle et de déterminer ce paramètre hydrodynamique sur l'ensemble de la nappe. Cette modélisation hydrogéologique a été réalisée à partir des modèles conceptuels Est-Ouest et Nord-Sud qui montrent que le CT est un aquifère constitué de deux couches principales n3 et n4, respectivement formées de sables grossiers de 90 m d'épaisseur et de sables fins à moyen de 80 m d'épaisseur. Le calage du modèle bicouche s'est effectué en régime transitoire de 12 pas de temps mensuels avec des données piézomètriques de 24 piézomètres, des données de production de 71 forages et des valeurs de transmissivité connues de 40 forages dans un maillage élément fini constitué de 534 mailles et 320 noeuds. Ainsi, ce modèle de la nappe du CT a identifié une structure de dimension 153 nœuds comme la structure la plus proche de celle de l'aquifère du CT. Les valeurs de T variant entre 5,4.10−5 et 1 m2 s−1 du champ de transmissivité associé à cette dimension optimale, ont été comparées aux valeurs de T d'autres champs de transmissivités publiées dans des études en Afrique et dans le monde. Ces valeurs identifiées sont plausibles et présentes une bonne structure dans l'ensemble.
APA, Harvard, Vancouver, ISO, and other styles
19

Ndikumasabo, Noël. "La Problématique d’Intégration de la Jurisprudence Internationale sur le Délai Raisonnable d'Exécution des Jugements en Droit Burundais." European Scientific Journal, ESJ 20, no. 2 (January 31, 2024): 148. http://dx.doi.org/10.19044/esj.2024.v20n2p148.

Full text
Abstract:
La sécurité juridique des affaires et celle du titulaire du droit ainsi que l’ordre social ne peuvent être atteints que dans la mesure où les droits subjectifs revendiqués devant les juridictions et reconnus par un jugement coulé en force de chose jugé sont effectivement exécutés, sans trop attendre. La finalité du procès n’est pas seulement de rechercher la vérité en observant les garanties de bonne justice, mais la sécurité juridique commande par ailleurs que l'exécution soit faite dans un délai raisonnable. Selon la jurisprudence internationale, le délai du procès arrive à son terme au moment où le droit revendiqué trouve sa réalisation effective. Il s’analyse depuis la saisine jusqu’à l’exécution définitive du jugement. Même si la Constitution burundaise consacre le délai raisonnable du procès, cette garantie, encore moins ses critères d'appréciation n'est pas définie, ni détaillée par aucun texte législatif ou réglementaire. Elle n’est non plus consacrée par la jurisprudence nationale. En droit burundais, la phase d’exécution est parfois plus compliquée à mettre en œuvre pour diverses raisons. L’inapplication des critères jurisprudentiels du délai raisonnable, les déficiences systémiques dans les procédures d'exécution, l'incohérence normative constituent en grande partie les handicaps au délai déraisonnable d'exécution. Ces lacunes conduisent à des délais déraisonnables d'exécution des jugements. Eu égard aux avancées de la jurisprudence internationale dans l'encadrement du délai raisonnable d’exécution, le droit burundais devrait asseoir une culture du délai raisonnable en capitalisant cette source du droit pour éviter la remise en cause des décisions de justice et promouvoir ainsi la sécurité juridique des affaires. Sur base d’une méthodologie documentaire, l'étude a pour objectif d'analyser les problèmes au délai raisonnable d’exécution et de voir dans quelle mesure les critères d'appréciation du délai raisonnable peuvent constituer un remède à la problématique d’exécution des jugements en temps réel. The legal certainty of business and that of the holder of the right as well as social order can only be achieved to the extent that the subjective rights claimed before the courts and recognized by a judgment having the force of res judicata are effectively executed, without waiting too much. The purpose of the trial is not only to seek the truth by observing the guarantees of good justice, but legal certainty also requires that the execution be carried out within a reasonable time. According to international case law, the trial's period ends when the claimed right finds its effective realization. The reasonable time is analyzed from the beginning of the trial until its execution. Even if the Burundian Constitution consecrates the reasonable time, this concept, even less its criteria of appreciation is not defined, nor detailed by any legislative or regulatory text, nor enshrined by national jurisprudence. In Burundian law, the execution phase is sometimes more complicated to implement for various reasons. The non-application of the jurisprudential criteria of reasonable time, systemic deficiencies in execution procedures, normative inconsistency largely constitute handicaps to unreasonable execution time. These shortcomings lead to unreasonable delays in the execution of judgments. In view of international jurisprudence’s advance in the framework of the reasonable time of execution, Burundian law should establish a culture of reasonable time, by capitalizing on this source of law in order to avoid the calling into question of court decisions and thus promote legal certainty business. Based on a documentary methodology, the study aims to analyze the handicaps to the reasonable execution time and to see how the criteria for assessing the reasonable time can constitute a remedy to the problem of executing judgments in real time.
APA, Harvard, Vancouver, ISO, and other styles
20

Gather Thurler, Monica. "Piloter dans une société en changement." Swiss Journal of Educational Research 28, S (December 1, 2006): 15–24. http://dx.doi.org/10.24452/sjer.28.s.4754.

Full text
Abstract:
Dans la plupart des systèmes scolaires, le pilotage revient aux cadres scolaires (collaborateurs des directions générales, chefs d’établissements, directeurs des institutions de formation des enseignants), qui sont censés exercer un leadership déterminant dans le développement de ces systèmes. En même temps, le raisonnement sur leur rôle et fonction reste encore trop souvent limité à quelques principes généraux, reliés à leur position dans une structure hiérarchique et à leur travail prescrit dans les cahiers de charge (lorsque ceux-ci existent), n’est que rarement fondé sur une analyse approfondie de leur travail réel. Or, d’un pays à l’autre, voire d’une région à l’autre dans les pays fédéralistes, celui-ci diffère selon les législations et les orientations politiques, mais également selon la culture professionnelle prépondérante. De fait, leur manière d’exercer un leadership revêtira des fonctionnements et des formes très divers: ils se trouveront tantôt dans la position d’un décideur solitaire, dans celle d’un membre d’une équipe de direction ou encore dans celle d’un primus inter pares au sein d’une équipe pédagogique. A ces variations s’ajoutent un certain nombre d’aspects dont on ne mesure pas toujours les conséquences: la plupart des cadres scolaires ont au préalable été enseignants eux-mêmes, ce qui implique une certaine «complicité» avec celles et ceux qu’ils sont désormais censés diriger. Ils succèdent toujours à quelqu’un et, à un certain moment, cèdent leur place à quelqu’un d’autre; ils seront donc dans l’obligation d’assurer une certaine continuité tout en démontrant leur capacité de laisser leur «empreinte» pendant leur passage. Enfin, ils représentent l’autorité, qui leur délègue du pouvoir; ils doivent donc «montrer patte blanche », se soumettre à une culture institutionnelle, à une conception du rôle du ministère, des autorités politiques locales ou régionales, dont le rôle et l’influence varient d’un pays et d’un système scolaire à l’autre.Pour lancer le débat sur la problématique du leadership qui se trouve au centre de ce congrès de la SSRE, je prendrai le parti de lier la fonction des cadres scolaires soit au fonctionnement ordonné du système éducatif, soit à sa modernisation continue. Et tenterai de montrer qu’en vertu de l’écart de moins en moins acceptable entre les objectifs déclarés de l’école et ses résultats, la composante de l’innovation semble ici prioritaire. Dans cette perspective, diriger dans une société en changement, c’est piloter des transformations incessantes, qu’elles soient impulsées par l’évolution de la demande sociale, les inflexions des politiques de l’éducation, le renouvellement des savoirs, voire les exigences des nouveaux publics scolaires, culturelles et économiques.
APA, Harvard, Vancouver, ISO, and other styles
21

LAPORTE, C. "La valeur des choses." EXERCER 34, no. 196 (October 1, 2023): 399. http://dx.doi.org/10.56746/exercer.2023.196.399.

Full text
Abstract:
En mathématiques, la valeur absolue, appelée aussi mesure, d’un nombre réel est sa valeur numérique brute. Et c’est un fait : la France n’a jamais formé autant de médecins qu’à l’aune de cette rentrée universitaire 2023. 9 500 étudiants viennent d’embrasser leur spécialité, près de 3 900 en médecine générale. Ils étaient moins de 4 000 en 1990. Cette donnée factuelle peut paraître discordante avec le ressenti territorial, la démographie médicale criant au désert ; le ressenti des généralistes, qui ne se sont jamais sentis aussi peu nombreux, voire seuls ; le ressenti de nos étudiants, inquiets pour leur formation ; le ressenti des enseignants, capitaines dont le bateau est aussi bousculé que les marins à bord ; et surtout le ressenti des patients appelant de leurs voeux un médecin traitant. Et pourtant, le ratio, lui, n’a que peu changé depuis 1961. White modélisait alors un système de soins américain, nous permettant d’invoquer de manière un peu messianique qu’en moyenne par mois, sur 1 000 patients exposés à un problème de santé, 250 ont vu un généraliste, 9 ont été hospitalisés, et 1 hospitalisé dans un CHU1. Cet équilibre a résisté 60 ans et traversé les frontières et les systèmes de soins puisque tous les pays font le même constat2. Alors que faire dire à cette dernière version française (figure) qui montre à l’instant que notre pays n’est pas une exception ?3 Que veulent dire ces valeurs ? En termes d’exercice, ce ratio justifie amplement le choix de former 40 % de généralistes sur la totalité des médecins dans notre pays. En termes de recherche, que par de là les chiffres et les ressentis, c’est de données dont nous avons besoin. Le projet P4DP propose pour la première fois un dispositif pérenne et financé qui va permettre le recueil de données en pratique dite de routine de médecine générale. En termes de pédagogie, l’effectif formé, les responsabilités qu’a cet effectif justifient une formation d’excellence en quantité et en qualité. OEuvrons donc tous ensemble pour que cette 4e année de DES de médecine générale porte la phase de consolidation des compétences des futurs médecins. Toutes les idées, dispositifs pédagogiques innovants et ressources humaines vont être nécessaires pour cela. En termes sanitaires : nous devons offrir à nos patients des généralistes en nombre suffisant et bien formés. Aucune économie ne peut être faite sur ces 2 axiomes de base. C’est vrai pour tous les professionnels de santé, médicaux, paramédicaux et sociaux qu’ils vont rencontrer pendant leur parcours de soin. L’expression « ville – hôpital » est également utilisée comme une « rengaine », et toujours centrée sur les institutions. Mais c’est bien d’interface entre les intervenants du patient qui doit être une réalité : les patients doivent pouvoir passer d’un carré à l’autre dans la plus grande fluidité et sans perte de chance pour leur santé. Alors est-ce que ce n’est pas le moment ? Vu les enjeux, les carrés et les valeurs absolues ? De se poser la question : c’est quoi un médecin généraliste en 2023 ? Ce n’est pas un conseil qu’on a l’habitude de donner, mais je le fais : quittez vos cabinets du 28 novembre au 1er décembre pour venir au congrès du CNGE à Lyon. Ce sera une plus-value estimable dès votre retour auprès de vos patients en consultation. Tous ces aspects seront abordés lors des plénières, tables rondes ou en session de communications, avec un temps toujours plus grand pour les professionnels de santé non médicaux et pour les patients, avec un temps toujours plus large pour les moments d’échanges.
APA, Harvard, Vancouver, ISO, and other styles
22

LAPORTE, C. "LA VALEUR DES CHOSES." EXERCER 34, no. 196 (October 1, 2023): 339. http://dx.doi.org/10.56746/exercer.2023.196.339.

Full text
Abstract:
En mathématiques, la valeur absolue, appelée aussi mesure, d’un nombre réel est sa valeur numérique brute. Et c’est un fait : la France n’a jamais formé autant de médecins qu’à l’aune de cette rentrée universitaire 2023. 9 500 étudiants viennent d’embrasser leur spécialité, près de 3 900 en médecine générale. Ils étaient moins de 4 000 en 1990. Cette donnée factuelle peut paraître discordante avec le ressenti territorial, la démographie médicale criant au désert ; le ressenti des généralistes, qui ne se sont jamais sentis aussi peu nombreux, voire seuls ; le ressenti de nos étudiants, inquiets pour leur formation ; le ressenti des enseignants, capitaines dont le bateau est aussi bousculé que les marins à bord ; et surtout le ressenti des patients appelant de leurs voeux un médecin traitant. Et pourtant, le ratio, lui, n’a que peu changé depuis 1961. White modélisait alors un système de soins américain, nous permettant d’invoquer de manière un peu messianique qu’en moyenne par mois, sur 1 000 patients exposés à un problème de santé, 250 ont vu un généraliste, 9 ont été hospitalisés, et 1 hospitalisé dans un CHU1. Cet équilibre a résisté 60 ans et traversé les frontières et les systèmes de soins puisque tous les pays font le même constat2. Alors que faire dire à cette dernière version française (figure) qui montre à l’instant que notre pays n’est pas une exception ?3 Que veulent dire ces valeurs ? En termes d’exercice, ce ratio justifie amplement le choix de former 40 % de généralistes sur la totalité des médecins dans notre pays. En termes de recherche, que par de là les chiffres et les ressentis, c’est de données dont nous avons besoin. Le projet P4DP propose pour la première fois un dispositif pérenne et financé qui va permettre le recueil de données en pratique dite de routine de médecine générale. En termes de pédagogie, l’effectif formé, les responsabilités qu’a cet effectif justifient une formation d’excellence en quantité et en qualité. OEuvrons donc tous ensemble pour que cette 4e année de DES de médecine générale porte la phase de consolidation des compétences des futurs médecins. Toutes les idées, dispositifs pédagogiques innovants et ressources humaines vont être nécessaires pour cela. En termes sanitaires : nous devons offrir à nos patients des généralistes en nombre suffisant et bien formés. Aucune économie ne peut être faite sur ces 2 axiomes de base. C’est vrai pour tous les professionnels de santé, médicaux, paramédicaux et sociaux qu’ils vont rencontrer pendant leur parcours de soin. L’expression « ville – hôpital » est également utilisée comme une « rengaine », et toujours centrée sur les institutions. Mais c’est bien d’interface entre les intervenants du patient qui doit être une réalité : les patients doivent pouvoir passer d’un carré à l’autre dans la plus grande fluidité et sans perte de chance pour leur santé. Alors est-ce que ce n’est pas le moment ? Vu les enjeux, les carrés et les valeurs absolues ? De se poser la question : c’est quoi un médecin généraliste en 2023 ? Ce n’est pas un conseil qu’on a l’habitude de donner, mais je le fais : quittez vos cabinets du 28 novembre au 1er décembre pour venir au congrès du CNGE à Lyon. Ce sera une plus-value estimable dès votre retour auprès de vos patients en consultation. Tous ces aspects seront abordés lors des plénières, tables rondes ou en session de communications, avec un temps toujours plus grand pour les professionnels de santé non médicaux et pour les patients, avec un temps toujours plus large pour les moments d’échanges.
APA, Harvard, Vancouver, ISO, and other styles
23

Guilmin-Crépon, S., J. Schroedt, V. Sulmont, A. S. Salmon, C. Le Tallec, R. Coutant, F. Dalla-Vale, et al. "P1119 Peut-on prédire l’efficacité de la mesure continue du glucose en temps réel sur l’HbA1c à 3 mois chez les enfants et adolescents diabétiques de type 1 ? Résultats préliminaires d’une étude prospective de 141 patients (Start-In !)." Diabetes & Metabolism 39 (March 2013): A59. http://dx.doi.org/10.1016/s1262-3636(13)71865-2.

Full text
APA, Harvard, Vancouver, ISO, and other styles
24

Hou-Dong, Li, Shu Bin, Xu Ying-Bin, Shi Yan, Qi Shao-Hai, Li Tian-Zeng, Liu Xu-Sheng, Tang Jin-Ming, and Xie Ju-Lin. "Differentiation of Rat Dermal Papilla Cells into Fibroblast-Like Cells Induced by Transforming Growth Factor β1." Journal of Cutaneous Medicine and Surgery 16, no. 6 (November 2012): 400–406. http://dx.doi.org/10.1177/120347541201600608.

Full text
Abstract:
Background: The origin of wound-healing fibroblasts is still debated. Dermal papilla cells (DPCs), which are an important population of stem cells for the regeneration of hair follicles, play a considerable role in cutaneous wound healing. Based on the plasticity of DPCs in wound healing, we hypothesized that DPCs may contribute to the fibroblast population of wound repair. Objective: To explore the possibility of differentiation of DPCs into fibroblasts induced by transforming growth factor β1 (TGF-β1). Methods: The fourth passage DPCs were treated with TGF-β1 (10 ng/mL) for 4 days, and a series of methods was used to observe morphologic changes under an inverted phase contrast microscope, to validate the messenger ribonucleic acid expression change in α-smooth muscle actin (α-SMA) and vimentin by quantitative real-time reverse transcriptase polymerase chain reaction (QRT-PCR), to analyze the expression of α-SMA and vimentin protein by flow cytometry, and to semiquantitatively measure the expression of fibroblast-specific protein 1 (FSP1) by Western blot. Results: DPCs treated with TGF-β1 presented fibroblast-like changes in morphology and immunocytochemistry. The effects of TGF-β1 on α-SMA and vimentin in DPCs were detected on both the transcriptional and the posttranscriptional levels. The results showed that TGF-β1 significantly downregulated α-SMA expression and enhanced the expression of vimentin at all times tested. Further study revealed that TGF-β1 could gradually promote the expression of FSP1 in a time-dependent manner. Conclusion: DPCs experienced the changes in molecular marker expression in response to TGF-β1, which may be a key source of fibroblasts in wound healing. Contexte: L'origine des fibroblastes dans la cicatrisation fait encore l'objet de débats. Les cellules des papilles dermiques (CPD), qui constituent une population importante de cellules souches pour la régénération des follicules pileux, jouent un rôle considérable dans la cicatrisation du tissu cutané. Compte tenu de la plasticité des CPD dans la cicatrisation, nous avons émis l'hypothèse selon laquelle les CPD pourraient contribuer à l'accroissement de la population de fibroblastes dans la cicatrisation. Objectif: L'étude visait à examiner la possibilité de différenciation des CPD en fibroblastes, provoquée par le facteur de croissance transformant β1 (TGF-β1). Méthodes: Les CPD ont été traités, au quatrième passage, au TGF-β1 (10 ng/mL), pendant 4 jours, et nous avons eu recours à la microscopie à contraste de phase inversée pour observer les changements morphologiques; à la réaction en chaîne par polymérase quantitative, en temps réel, après transcription inverse (RCP-TI) pour valider le changement d'expression de l'acide ribonucléique messager de l'actine des muscles lisses alpha (AMC-α) et de la vimentine; à la cytométrie de flux pour analyser l'expression des protéines d'AMC-α et de vimentine; et au buvardage de Western pour obtenir une mesure semiquantitative de l'expression de la protéine 1 spécifique des fibroblastes (PSF1). Résultats: Les CPD traités au TGF-β1 ont subi des changements morphologiques et immunocytochimiques leur conférant un caractère fibroblastoïde. Les effets du TGF-β1 sur l'AMC-α et la vimentine dans les CPD ont été détectés aux phases transcriptionnelle et posttranscriptionnelle. D'après les résultats obtenus, le TGF-β1 a sensiblement régulé à la baisse l'expression de l'AMC-α et intensifié l'expression de la vimentine, et ce, à tous les points de vérification dans le temps. Enfin, une étude complémentaire a révélé que le TGF-β1 pouvait favoriser graduellement l'expression de la PSF1 en fonction du temps. Conclusion: Les CPD ont subi des changements tels d'expression de marqueurs moléculaires, en réaction au TGF-β1, qu'ils pourraient être une source importante de fibroblastes dans la cicatrisation.
APA, Harvard, Vancouver, ISO, and other styles
25

Belderbos, Marc. "actualité d’Alberti." Les Pages du laa 1, no. 4 (August 24, 2023): 1–56. http://dx.doi.org/10.14428/lpl.v1i4.75473.

Full text
Abstract:
« L’architecture, au même titre que la mathématique ou la musique, ou l’art de manière générale, n’est pas une science mais une discipline. Une science vise un savoir sur le fonctionnement d’une réalité. Une discipline vise une vérité sur la structure d’un réel. Les disciplines accompagnent les sciences, elles sont comme leur exigence sous-jacente, à la fois de l’ordre de l’éthique et de la structure.»L’argument de la journée était celui-ci : « Alberti, avec le De Re Aedificatoria, entreprend à la fois d’identifier les constituants élémentaires de l’architecture et d’établir les règles destinées à les articuler au sein d’une édification. Le concept de Beau surplombe l’ouvrage et mérite un traitement en soi : il s’institue en tant qu’autorité supérieure dont procède l’articulation concrète des éléments architectoniques. On connaît la formulation la plus canonique : le Beau commande l’instauration d’un juste rapport entre les parties et le tout, de telle façon qu’aucun membre ne puisse être ôté, ajouté ou modifié sans mettre en péril le droit de l’édifice à participer au Beau. Ce principe conduit à considérer les rapports qu’entretiennent entre elles les mesures données aux différents corps et aux différents espacements qui sont associés par une architecture. Des références sont à disposition, qui appartiennent à la nature ou à l’histoire, auxquelles l’architecte doit s’adresser pour conduire son ouvrage : le corps humain et les corps bâtis par les Anciens constituent les références les plus originelles. Le travail de l’architecte est ainsi parfaitement balisé : finalité ordonnatrice (le Beau), règles d’articulations (rapports mesurés entre les parties et le tout), références fondatrices (le corps de l’homme et l’architecture des Anciens).L’ (in)actualité d’Alberti, et le dilemme qu’elle suppose, s’affiche ici avec acuité. Dans quelle mesure sommes-nous encore couverts par le dispositif (finalité ordonnatrice, règles d’articulation, références fondatrices) déployé par Alberti dans le De Re Aedificatoria ? Où sont les finalités, les règles et les références dans la situation contemporaine ? L’architecture semble bien orpheline aujourd’hui à ces différents égards, invitée par les discours ambiants à saisir l’air du temps, peu préoccupée par l’établissement de ses axiomes, soucieuse de dériver sur les vagues d’une imagerie qui accompagne l’ensemble des pratiques sociales. Mais le questionnement n’est-il pas déplacé si le pari très actuel d’une architecture qui serait capable d’éclore dans l’immanence de son auto-fondation, comme le geste d’un pur désir, venait à convaincre de sa force ?Il nous paraît nécessaire de faire un pas de côté, de re-considérer une discipline qui fut re-fondée en son autonomie à l’époque d’Alberti, et cela dans la poursuite-même du mouvement inauguré par lui, mouvement qui réclame de ne cesser d’ouvrir la question de la légitimité des pratiques de l’architecture. L’autonomie disciplinaire de l’architecture n’est pas identique à l’autonomie du sujet–auteur–architecte, et vice versa : nous en sommes convaincus. Pourtant chacune est revendiquée aujourd’hui avec vigueur ! Retourner vers Alberti, c’est nous permettre de mieux faire retour sur notre propre situation et de questionner l’état des enjeux de notre discipline.Nous proposons de vous engager sur ce chemin en considérant le texte d’Alberti de manière rapprochée, en croisant la pensée du projet avec les articulations les plus précises et les plus concrètes du traité, nous voulons dire celles qui engagent directement la fabrication des architectures. »
APA, Harvard, Vancouver, ISO, and other styles
26

Payment, P., and P. Hartemann. "Les contaminants de l'eau et leurs effets sur la santé." Revue des sciences de l'eau 11 (April 12, 2005): 199–210. http://dx.doi.org/10.7202/705338ar.

Full text
Abstract:
La transmission des maladies par la voie hydrique est sous contrôle dans la majorité des pays industrialisés. Malgré tout des maladies épidémiques ou endémiques sont encore observées. Plusieurs microorganismes sont en émergence, et Cryptosporidium a été impliqué dans des épidémies importantes dans plusieurs pays. Le conrôle de ces maladies transmissibles par la voie hydrique requiert des autorités des nouvelles approches qui allient le contrôle des risques de cancer dûs aux sous-produits de la désinfection au contrôle des micro-organismes les plus résistants . Aux Etats-Unis, l'objectif proposé est l'absence de microorganismes dans l'eau potable. Cet objectif ne peut être contrôlé par les indicateurs usuels et l'on recommande donc un niveau de traitement équivalent. Le traitement est alors contrôlé en temps réel par des moyens physico-chimiques tels la turbidité ou la mesure des particules, et un contrôle a posteriori par de nouveaux indicateurs telles les spores des bactéries sporulantes aérobies. Le vieillissement des installations, des populations immunocompromises et une urbanisation grandissante sont autant de causes de l'émergence de nouvelles maladies infectieuses dont certaines transmissibles par la voie hydrique. La proportion des maladies gastro-intestinales qui est attribuable à l'eau de consommation est encore très grande et elle contribue à maintenir ces infections en circulation dans la population. Le dilemme du contrôle des risques de cancer dus aux sous-produits de la désinfection ne doit pas conduire à une réduction de l'efficacité des traitements, car le niveau de risque à partir duquel ont été fixées les concentrations maximales admissibles de ces sous-produits dans l'eau (10-6 cas de cancer par vie entière d'exposition) est bien plus faible que celui de contracter une maladie infectieuse d'origine hydrique en absence de traitement adéquat. La situation en matière de pathologies induites par la consommation d'eau est extrêmement contrastée selon les pays. En effet la transmission de maladies infectieuses par la voie hydrique a été maîtrisée dans la plupart des pays industrialisés par la mise en place d'installations de traitement et d'un contrôle sanitaire s'appuyant sur une réglementation abondante. A l'opposé la situation des pays en voie de développement reste souvent très mauvaise dans ce domaine et l'Organisation Mondiale de Santé estime que 1,5 milliards d'habitants ne disposent pas encore d'eau potable dont cent millions en Europe et que 30 000 morts journalières sont dues à l'absence d'une eau en quantité et qualité satisfaisantes (Ford et Colwell 1996). En revanche les pays développés voient la qualité chimique des eaux distribuées de plus en plus souvent mise en cause par les associations de consommateurs. Outre le progrès très rapide des techniques analytiques qui permet de découvrir la présence de traces dont on ne soupçonnait guère la présence dans l'eau du robinet, la pollution croissante de la ressource, les traitements de désinfection et le contact avec les matériaux des réseaux de distribution apportent des molécules dont la toxicité à moyen et long terme mérite d'être évaluée. La mise en oeuvre de traitements de désinfection dont l'utilité est indiscutable et l'effet sur la morbidité et la mortalité par pathologie infectieuse chez des populations desservies parfaitement significatif, s'accompagne de la formation de sous-produits. Certains de ceux-ci étant cancérigènes et/ou mutagènes en expérimentation de laboratoire et des études épidémiologiques ayant pu montrer une légère augmentation du risque de cancer dans la population, l'impact médiatique de cette information peut conduire à une mauvaise appréciation dans la gestion des risques pour la santé. Ainsi l'arrêt de la chloration pour éviter la formation de sous produits et quelques cas de cancers aurait conduit un pays d'Amérique du Sud a enregistrer une importante épidémie de choléra et des centaines de décès. Il n'est pas facile de gérer ce paradoxe entre sophistication du traitement lié à la pollution de la ressource entraînant la présence de sous produits de désinfection et la persistance d'éléments traces et de divers microorganismes dans une eau de qualité conforme aux critères de potabilité mais que le consommateur ne veut plus consommer. Dans cet article nous tenterons de faire le point sur le risque hydrique pour la santé lié d'une part aux contaminants biologiques et d'autre part aux contaminants chimiques. Sa meilleure connaissance est la clef d'une stratégie de gestion efficace et d'une reconquête du consommateur que la publicité a trop tendance à orienter vers les eaux embouteillées.
APA, Harvard, Vancouver, ISO, and other styles
27

CHIRA, Rodica-Gabriela. "Sophie Hébert-Loizelet and Élise Ouvrard. (Eds.) Les carnets aujourd’hui. Outils d’apprentissage et objets de recherche. Presses universitaires de Caen, 2019. Pp. 212. ISBN 979-2-84133-935-8." Journal of Linguistic and Intercultural Education 13 (December 1, 2020): 195–200. http://dx.doi.org/10.29302/jolie.2020.13.12.

Full text
Abstract:
l s’agit d’un volume paru comme résultat de l’initiative d’Anne-Laure Le Guern, Jean-François Thémines et Serge Martin, initiative qui, depuis 2013, a généré des manifestations scientifiques, des journées d’études organisées autour des carnets de l’IUFM, devenu ESPE et actuellement l’INSPE de Caen. Les carnets édités par la suite sont devenus un espace de réflexion, et un outil d’enseignement-apprentissage, un espace de recherche. Qu’est-ce qu’un carnet en didactique ? Les trois axes de recherche du volume Les carnets aujourd’hui… l’expliquent, avec de exemples des pratiques en classe ou dans le cadre d’autres types d’activités à dominante didactique. Un carnet peut être un objet en papier de dimensions et textures diversifiées, utilisé en différentes manières afin de susciter l’intérêt et la curiosité de l’apprenant. Parmi ses possibilités d’utilisation en classe : au lycée, qu’il s’agisse du lycée de culture générale ou du lycée professionnel, pour créer des liens entre littérature et écriture (« Lecture littéraire, écriture créative », avec des articles appartenant à Anne Schneider, Stéphanie Lemarchand et Yves Renaud) ; en maternelle et à l’école primaire (« Pratiques du carnet à l’école primaire », les articles liés à ce sujet appartenant à Catherine Rebiffé et Roselyne Le Bourgeois-Viron, Dominique Briand, Marie-Laure Guégan, Élise Ouvrard ; le carnet peut également passer du format papier à des adaptations modernes comme le téléphone mobile, le blog... (« D’une approche anthropologique à une approche culturelle », des recherches en ce sens venant de la part d’Élisabeth Schneider, Magali Jeannin, Corinne Le Bars). Sophie Hébert-Loizelet et Élise Ouvrard, ouvrent le volume avec le texte intitulé « Le carnet, une matérialité foisonnante et insaisissable », où elles partent de l’aspect physique d’un carnet vers ses contenus, tout en soulignant que, « depuis une quarantaine d’années » seulement, des spécialistes en critique génétique, des théoriciens des genres littéraires et des universitaires lui accordent l’importance méritée, dans la tentative de « répondre à cette simple question "qu’est-ce qu’un carnet" », parvenant ainsi à en démultiplier « les pistes intellectuelles, théoriques autant que pratiques » (Hébert-Loizelet, & Ouvrard 2019 : 9). La diversité des carnets détermine les auteures à souligner, et à juste titre, que le carnet « incarne matériellement et pratiquement une certaine forme de liberté, n’ayant à priori aucune contrainte à respecter et pouvant dès lors recevoir n’importe quelle trace », permettant ainsi « à son détenteur, de manière souvent impromptue, indirecte […], de se découvrir, par tâtonnements, par jaillissements » (Hébert-Loizelet, & Ouvrard 2019 : 10). Le premier contact avec un carnet étant d’ordre esthétique, on comprend bien la « magie » qu’il peut exercer sur l’élève, l’invitant ainsi, en quelque sorte, à sortir de la salle de cours, à se sentir plus libre. Le carnet est en même temps un bon aide-mémoire. Ses dimensions invitent à synthétiser la pensée, à la relecture, une « relecture à court terme » et une « relecture à long terme » (Hébert-Loizelet, & Ouvrard 2019 : 15), toutes les deux enrichissantes. Le carnet devient effectivement outil d’apprentissage et objet de recherche. Les contributions présentes dans ce livre, soulignent les auteures par la suite, représentent des regards croisés (du 23 mars 2016) sur « l’objet carnet, en proposant des recherches académiques, anthropologiques ou didactiques mais également des comptes rendus d’expériences sur le terrain » dans le but de « prendre en considération l’utilisation des carnets dans leur grande hétérogénéité de la maternelle à l’université pour rendre compte des voyages, mais aussi de lectures et d’apprentissage dans les disciplines aussi variées que le français, l’histoire, les arts visuels, ou les arts plastiques, et ce dans différents milieux institutionnels » (Hébert-Loizelet, & Ouvrard 2019 : 17). Prenons le premier axe de recherche mentionné plus haut, celui de la lecture littéraire et de l’écriture créative. Se penchant sur d’autorité de différents spécialistes dans le domaine, tels Pierre Bayard et Nathalie Brillant-Rannou, les deux premiers textes de cet axe insistent sur la modalité d’intégrer « l’activité du lecteur et son rapport à la littérature » par le carnet de lecture dans le cadre de la didactique de la littérature. Le troisième texte représente une exploitation du carnet artistique qui « favorise un meilleur rapport à l’écriture » et modifie la relation que les élèves de 15 à 17 ans du canton Vaud de Suisse ont avec le monde (Hébert-Loizelet, & Ouvrard 2019 : 19). Nous avons retenu de l’article d’Anne Schneider, l’exploitation de la notion de bibliothèque intérieure, telle qu’elle est vue par Pierre Bayard, bibliothèque incluant « nos livres secrets » en relation avec ceux des autres, les livres qui nous « fabriquent » (Schneider 2019 : 36). Ces livres figurent dans les carnets personnels, avec une succession de titres lus ou à lire, commentaires, dessins, jugements. Pour ce qui est de l’expérience en lycée professionnel (l’article de Stéphanie Lemarchand), on souligne l’attention accordée au « sujet lecteur » par le biais du carnet de lecture, plus exactement la réalisation d’une réflexion personnelle et les possibilités d’exprimer cette réflexion personnelle. Ici encore, il faut signaler la notion d’« autolecture » introduite par Nathalie Brillant-Rannou, l’enseignant se proposant de participer au même processus que ses élèves. En ce sens, la démarche auprès des élèves d’une école professionnelle, moins forts en français et en lecture, s’avère particulièrement intéressante. On leur demande d’écrire des contes que leurs collègues commentent, ou de commenter un film à l’aide du carnet de lecture qui devient carnet dialogique, non pas occasion du jugement de l’autre, mais d’observer et de retenir, devenant ainsi « un embrayeur du cours » (Lemarchand 2019 : 45). Le passage aux textes littéraires – des contes simples aux contes plus compliqués et des films de science-fiction aux livres de science-fiction – devient normal et incitant, permettant petit à petit le passage vers la poésie. L’utilisation du carnet dialogique détermine les élèves à devenir conscients de l’importance de leur point de vue, ce qui fait que ceux-ci commencent à devenir conscients d’eux-mêmes et à choisir des méthodes personnelles pour améliorer leur niveau de compétences, la démarche de l’enseignant devenant elle aussi de plus en plus complexe. Le premier article, du deuxième axe, celui visant les pratiques du carnet à l’école primaire, article signé par Catherine Rebiffé et Roselyne Le Bourgeois-Viron, présente le résultat d’une recherche qui « s’appuie sur les liens entre échanges oraux et trace écrite, mais aussi sur la dimension retouchable, ajustable de l’objet carnet réunissant dessins, photographies et dictée, afin d’initier les élèves à l’écrit » (Hébert-Loizelet, & Ouvrard 2019 : 19). Pour ce qui est de l’enseignement de l’histoire à des élèves du cycle 3, avec une pensée critique en construction et une difficulté de comprendre un vocabulaire plus compliqué et les langages spécialisés, Dominique Briand propose le carnet Renefer, un choix parfait à son avis, vu que « l’artiste qui réalise les estampes sur le conflit [de la Grande Guerre] s’adresse à une enfant [de huit ans], sa fille » (Briand 2019 : 97), appelée par Renefer lui-même « Belle Petite Monde ». Un autre aspect important est lié au message transmis par l’image envisagée dans cette perspective. Il s’agit en effet de filtrer l’information en sorte que la violence et la souffrance soient perçues à des degrés émotionnels différents, pour laisser à l’élève la possibilité de débats, de réflexions. Les textes qui accompagnent les images du carnet Renefer, succincts mais suggestifs, s’adaptent également au niveau d’âge et implicitement de compréhension. Les élèves sont sensibilisés, invités à voir le côté humain, le brin de vie et d’espoir qui peuvent se cacher derrière une situation réaliste. Le carnet Renefer didactisé amène les élèves « à apprendre l’histoire dans une démarche active et clairement pluridisciplinaire qui laisse une place importante à l’histoire des arts » (Briand 2019 : 105). Le carnet d’artiste comme instrument didactique, plus exactement celui de Miquel Barceló qui a séjourné en Afrique et dont les carnets d’artiste témoignent de ses voyages et de l’utilisation des moyens locaux pour peindre ou même pour faire sécher les peintures est proposé par Marie-Laure Guégan. En passant par des crayons aquarelles, Miquel Barceló va ajouter du relief dans les pages peintes de ses carnets (« papiers d’emballage, billets de banque [par leur graphisme ils peuvent devenir le motif textile d’une robe de femme, par exemple], paquets de cigarettes, boîtes de médicaments » qui sont collés ou bien collés et arrachés par la suite). Pour réaliser des nuances différentes ou une autre texture, il y rajoute des « débris de tabac ou de fibre végétale agrégés de la terre, du sable ou de pigments » (Guégan 2019 : 117). Il est aidé par l’observation profonde de la nature, des changements perpétuels, du mélange des matières qui se développent, se modifient le long des années. Ainsi, il intègre dans ses peintures « le temps long (des civilisations), le temps moyen (à l’aune d’une période politique), le temps court (à la dimension de l’individu) » (Guégan 2019 : 121), aussi bien que l’espace, la lumière, l’ombre, les matières, le corps, l’inventivité. Toutes ces qualités recommandent déjà l’auteur pour l’exploitation didactique dans le primaire, il y vient avec un modèle d’intégration de l’enfant dans le monde. L’article de Marie-Laure Guégan parle de l’intégration du travail sur les carnets de l’artiste dans la réalisation de la couverture d’un carnet de voyage par les élèves du cycle 3 en CM2, (cycle de consolidation). D’où la nécessité d’introduire la peinture ou les carnets d’artistes « non comme modèles à imiter, mais comme objets de contemplation et de réflexion » (Guégan 2019 : 128). Dans l’article suivant, Élise Ouvrard parle d’un type de carnet qui permet l’exploitation des pratiques interdisciplinaires à l’école primaire, domaine moins approfondi dans le cadre de ces pratiques ; le but spécifique est celui de la « construction de la compétence interculturelle » qui « s’inscrit plus largement dans l’esprit d’une approche d’enseignement-apprentissage par compétences » (Ouvrard 2019 : 132). L’accent mis sur la compétence est perçu par Guy de Boterf, cité par Élise Ouvrard, comme « manifestation dans l’interprétation », à savoir la possibilité de « construire sa propre réponse pertinente, sa propre façon d’agir » (Cf. Ouvrard 2019 : 132 cité de Le Boterf 2001 :40) dans un processus qui vise la création de liens entre les éléments assimilés (ressources, activités et résultats pour une tâche donnée). Le professeur devient dans ce contexte, la personne qui traduit des contenus en actions qui servent « à mettre en œuvre, à sélectionner des tâches de difficulté croissante qui permettront aux élèves de gagner progressivement une maîtrise des compétences » (Ouvrard 2019 : 133). Cette perspective fait du carnet « un outil permettant de tisser des liens entre la culture scolaire et les expériences hors de la classe, mais aussi de décloisonner des apprentissages, de s’éloigner de l’approche par contenus-matière » (Ouvrard 2019 : 133). C’est un cadre d’analyse qui intègre la perspective didactique du français aussi bien que l’anthropologie de l’écriture. L’activité pratique consiste dans le travail sur des carnets de voyage avec des élèves en CM1 et CM2, venant de deux écoles différentes et qui préparent et effectuent un voyage en Angleterre. Les étapes du parcours visent : - entretiens individuels pré- et post-expérimentation des quatre enseignants concernés ; - fiche de préparation des séances autour du carnet ; - questionnaire pré- et post-expérimentation soumis aux élèves ; - entretiens collectifs post-expérimentation des élèves ; - photographies des carnets à mi-parcours de l’expérimentation et à la fin du parcours. L’analyse des documents a prouvé que les élèves ont réagi de manière positive. Ils ont apprécié le carnet comme plus valeureux que le cahier. Le premier permet un rapport plus complexe avec le milieu social, avec la famille, avec la famille d’accueil dans le cadre du voyage, même des visioconférences avec la famille. À partir des carnets de voyage on peut initier le principe des carnets de l’amitié qui permet au carnet d’un élève de circuler dans un petit groupe et s’enrichir des ajouts des autres collègues. On peut avoir également l’occasion de découvrir des talents des élèves, de mieux les connaître, de mettre l’accent sur leur autonomie. Différentes disciplines peuvent s’y intégrer : le français, l’anglais, l’histoire, les mathématiques, la géographie, la musique, les arts. Important s’avère le décloisonnement des disciplines par le choix de créneaux distincts pour l’utilisation-exploitation des carnets de voyage. Le dernier groupement d’articles, axé sur le passage d’une approche anthropologique à une approche culturelle, tente d’envisager un avenir pour le carnet. En tant que spécialiste des pratiques scripturales adolescentes, partant de la théorie de Roger T. Pédauque pour le document, Elisabeth Schneider se concentre dans son article sur le téléphone mobile par ce qu’on appelle « polytopie scripturale qui caractérise l’interaction des processus d’écriture, des activités et des déplacements avec le téléphone mobile » (Hébert-Loizelet, & Ouvrard 2019 : 21), celui-ci s’encadrant du point de vue épistémologique, dans les catégories « signe », « forme » et « médium », tridimensionnalité qui permet de « comprendre les enjeux actuels concernant l’auctorialité, la structure du document, par exemple, mais aussi d’en revisiter l’histoire » (Schneider 2019 : 164). L’importance du blog pédagogique comme carnet médiatique multimodal, résultat du travail avec des étudiants sous contrat Erasmus ou type Erasmus venus à l’ESPE de Caen pour mettre en lumière l’expérience interculturelle, est démontrée par Magali Jeannin. Son article prend comme point d’encrage les notions d’« hypermobilité » pour les individus avec une identité « hypermoderne », en pleine « mouvance » et « liquidité » (Jeannin 2019 : 169), qui, des fois, dans le cas des étudiants, pourrait se concrétiser en « expérience interculturelle » et « tourisme universitaire ». L’intérêt de l’auteure va vers l’interrogation, « les enjeux et les moyens d’une didactique de l’implication du sujet en contexte interculturel » par un « blog pédagogique des étudiants étrangers » lié au cours sur les compétences interculturelles. Ainsi, parmi les enjeux du « blog pédagogique des étudiants à l’étranger » comme carnet multimodal comptent : donner à l’expérience culturelle la valeur subjective qui évite la réification du sujet en investissant « la langue et la culture cibles comme des faits et pratiques sociaux (inter)subjectifs » (Jeannin 2019 : 171) et même transsubjectifs d’après le modèle du blog libre ; le blog-carnet devient un espace de rencontre entre carnet de voyage et carnet de lecture, carnet d’expérience, carnet d’ethnographie (avec un mélange entre langue cible et langue source) ; il s’inscrit « dans une tradition de l’écriture de l’expérience en classe de FLE » (Jeannin 2019 : 173). Les écrits en grande mesure programmés du blog pédagogique sont ensuite exploités ; ils répondent en même temps « à des besoins personnels » et à des « fins universitaires » (Jeannin 2019 : 174). Par ce procédé, le réel est pris comme un processus non pas comme une simple représentation. Toujours avec une visée interculturelle, le dernier article de cette série fait référence à l’Institut régional du travail social Normandie-Caen, dont le but est de former « les futurs travailleurs sociaux » (Hébert-Loizelet, & Ouvrard 2019 : 21), par une recherche franco-québécoise qui concerne l’implication des mobilités internationales pour études. Ce volume représente un outil particulièrement important en didactique, un outil que je recommande chaleureusement en égale mesure aux enseignants et aux chercheurs spécialisés. Si je me suis arrêtée sur quelques articles, c’est parce qu’il m’a semblé important d’insister sur des côtés qui sont moins exploités par les enseignants roumains et qui mériteraient de l’être.
APA, Harvard, Vancouver, ISO, and other styles
28

Mikaelian, Irina, and Anna Zalizniak. "Переписка по электронной почте как особый коммуникативный жанр." Chroniques slaves 2, no. 1 (2006): 95–111. http://dx.doi.org/10.3406/chros.2006.870.

Full text
Abstract:
La correspondance par courriel comme genre de communication Les études de plus en plus nombreuses consacrées à la communication par Internet accordent une place relativement modeste au courrier électronique. Les chercheurs font remarquer que les messages électroniques se situent quelque part entre la correspondance traditionnelle sur papier et la communication téléphonique. Cependant, la correspondance par courriel semble avoir des traits spécifiques qui permettent de la considérer comme un genre de communication à part. Notre premier objectif est de poser le problème de la correspondance électronique en tant qu’objet d’étude spécifique, dans toute sa complexité, à commencer par l’orthographe et en finissant par la pragmatique. Sont aussi pris en compte certains aspects psycholinguistiques et sociolinguistiques du courriel. Autant que nous sachions, ce problème n’a pas encore été posé, du moins dans la littérature linguistique russe. Nous avons limité notre champs d’étude à la correspondance privée par courriel des intellectuels russophones habitant dans différents pays du monde entier. Tous nos informateurs sont des locuteurs natifs de langue russe, diplômés en Russie, dont la langue ne présente pas de traits de déformation spécifiques à la langue des émigrés. Notre étude se partage en deux parties : I . Les caractéristiques principales de la correspondance par courriel en tant que genre de communication. IL Les traits spécifiques de la correspondance électronique russe en translittération latine. I. Nous dégageons les traits suivants qui, à notre avis, caractérisent le courriel en tant que genre de communication particulier 1 . La correspondance par courriel est souvent réalisée dans des conditions interactives : les deux communicants se trouvent devant leur ordinateur et répondent au message dès sa réception. Les messages échangés peuvent être multiples, ce qui rappelle une conversation téléphonique. Toutefois, le destinataire conserve le droit de différer sa réponse, voire de ne pas répondre (d’où le recours de certains utilisateurs à l’option «avis de réception»). 2. Communication sérielle : un échange de plusieurs messages qui forment une sorte d’acte communicatif unique. A l’intérieur d’une série, la cohérence est assurées par des techniques particulières (v. points 3 et 4). 3. Moyens anaphoriques spécifiques : l’insertion des fragments du message reçu dans le corps de la réponse. Ce procédé suscite chez certains correspondants une réaction de rejet. Une autre possibilité consiste à utiliser une phrase nominale de rappel introduite par pro («au sujet de»,) nascet («quant à») otnositel’no («en ce qui concernent») suivis des deux-points. 4. Formules de salutation ouvrant et clôturant les messages. Il existe dans ce domaine une grande variété de pratiques qui se rangent entre utilisation des formes d’adresse typiquement épistolaires ((Zdravstvujte ) Dorogaja (Dorogoj ) + nom ; S itvazheniem/Vsego nailucsego/Vas(Vasa) + nom) et omission totale de formes d’adresse et d’adieux. 5. Recours fréquent à la deixis temporelle typique de la communication orale. 6. Techniques graphiques. De ce point de vue, deux tendances, en partie opposées, distinguent le message électronique d’une lettre traditionnelle. (1) Minimalisation d’efforts : l’absence des majuscule, la simplification drastique de la ponctuation (la non utilisation des guillemets, l’omission des virgules, même chez les utilisateurs les plus cultivés). (2) Utilisation des techniques compensatoires qui visent à rendre les accents logiques et les intonations typiques de la langue parlée (orale) : l’écriture d’un mot ou d’une partie de texte en majuscules ; l’utilisation plus fréquente et non standard des signes de ponctuation tels que les deux-points, le tiret et les parenthèses. 7. Fautes de frappe significatives. Nous avons un nombre important d’exemples de fautes de frappe «grammaticales», typiques de l’écriture rapide et spontanée, mais impossibles dans la production orale. (Il ne s’agit pas des fautes qui caractérisent l’écriture des émigrés russes (Glovinskaja 2001)). Il s’agit de l’emploi récurrent du nominatif à la place d’un cas indirect comme dans : <...>весь день не могла выйти на улица', <...> сегодня поеду навестить бабушка <...>но это уже от знание, что так делается. Ces faits nécessitent une analyse plus approfondie. Cela pourrait indiquer, à notre avis, que les formes casuelles ne sont pas stockées dans la mémoire, mais sont générées à partir du cas zéro. Notons à cette occasion que la correspondance électronique est, entre autres, une source inestimable de données pour l’étude de la langue écrite spontanée. Si le texte du message n’a pas été relu, il dégage des tendances importantes, tels que fautes dans l’emploi des cas, omission involontaire des mots, utilisation de constructions dont l’ordre des mots est impossible du point de vue de la norme mais qui s’explique par la production du texte en temps réel. Ces faits sont significatifs pour les recherches psycholinguistiques. 8. Aberrations psychologiques liées au caractère intermédiaire des messages électroniques (entre l’oral et l’écrit). Comme dans une conversation télé- phonique, on attend une réponse/une réaction à une «réplique » électronique, mais il arrive qu’on n’en reçoive pas, ce qui est exclu dans une conversation téléphonique. II. Les traits spécifiques de la correspondance électronique russe en translittération latine 1 . Le texte d’un message électronique russe écrit en caractères latins possède une dimension sémiotique supplémentaire : la forme graphique des mots. La forme du mot cyrillique n’a pas cette dimension dans la mesure où elle est définie de façon univoque. 2. Ainsi, dans un texte translitéré, les toponymes et les anthroponymes étrangers posent des problèmes spécifiques : l’utilisateur a le choix de translitérer leur «traduction» en russe (Parizh, Gamburg) ou de les conserver sous la forme qu’ils possèdent dans la langue source. Ce choix est déterminé par plusieurs facteurs. Dans le dernier cas, le texte acquiert un caractère hybride dans la mesure où ces unités deviennent indéclinables. 3. Nous avons dégagé plusieurs systèmes de translittération plus ou moins courants dans la correspondance électronique. Ces systèmes sont analysés selon les paramètres suivant : système «scientifique»/systèmes spontanés ; systèmes permettant/non permettant la variation ; systèmes conservant toutes les oppositions de l’écriture cyrillique/systèmes caractérisés par la non distinction de certains signes. Nous dégageons également plusieurs facteurs qui peuvent déterminer le choix par l’utilisateur de tel ou tel système, tel que : la présence chez l’utilisateur d’une expérience professionnelle dans le domaine des lettres ; son type psychologique (mental) ; sa référence à une langue étrangère particulière (l’anglais, le français, l’allemand).
APA, Harvard, Vancouver, ISO, and other styles
29

Masson, Pierre, Anne Gallet-Budynek, and Julian Guezenoc. "LIBS et XRF : deux techniques pour la mesure rapide des éléments nutritifs dans les sols." IVES Technical Reviews, vine and wine, November 12, 2020. http://dx.doi.org/10.20870/ives-tr.2020.4518.

Full text
Abstract:
L’émergence de dispositifs analytiques portables tels que la spectrométrie de fluorescence des rayons X et la spectrométrie sur plasma induit par laser, permet de disposer d’outils pratiques et rapides pour réaliser des mesures élémentaires directement sur les sols, sans préparation préalable des échantillons. Leur utilisation peut être envisagée pour cartographier une parcelle, pour fournir des indicateurs en temps réel des potentialités d’un sol mais aussi pour suivre ces performances dans le temps en fonction d’un changement de contexte.
APA, Harvard, Vancouver, ISO, and other styles
30

Rodrigo, Miguel. "Naître vers la fin : circularités dans Alumbramiento de Víctor Erice." printemps 2024 32 (2024). http://dx.doi.org/10.4000/121xc.

Full text
Abstract:
Dans une filmographie où le récit est souvent fortement affaibli au profit d'une représentation directe du temps, Alumbramiento constitue une exception : ici la narration, agissant comme un véritable moteur à explosion, en raison de sa force relègue le temps à son statut classique de mesure du mouvement. Si l'attachement à un certain cinéma de la contemplation est toujours présent dans les plans que l'on peut qualifier de descriptifs, la ligne de force d'Alumbramiento est bien une flèche parcourant, imparable, la distance qui sépare le début du film de sa fin. Paradoxalement, le film le plus narratif d'Erice, celui qui s'appuie le plus sur le caractère linéaire et irréversible du temps, est en même temps celui où la poétique de la circularité, présente chez le cinéaste depuis son premier long-métrage, prend le plus de place et atteint son expression la plus aboutie. Organiquement intégrées dans la progression de l'action, l'ensemble des circularités parsemant Alumbramiento, à commencer par celle de sa structure, sont une force d'ordre involutif qui pourtant ne peut se déployer qu'à l'intérieur d'un temps forcément progressif. L'article se propose d'analyser la façon dont cette tension est construite, ainsi que ses répercussions concernant la démarcation, peut-être trop réductrice, entre temps linéaire et temps circulaire, tant sur le plan filmique que sur le plan du réel.
APA, Harvard, Vancouver, ISO, and other styles
31

Edeline, Francis. "Une image ne démontre pas, elle convainc." Visible, no. 11 (May 5, 2023). http://dx.doi.org/10.25965/visible.164.

Full text
Abstract:
La démarche scientifique consiste, dans un premier temps, à décrire correctement le monde réel. Dans un second temps elle cherche à fournir de cette description un équivalent symbolique, appelé modèle, dont le fonctionnement soit capable de reproduire, aussi fidèlement que possible, les caractéristiques spatiales et temporelles du monde réel. Dans l’ensemble de ces opérations le scientifique fait presque toujours appel à la visualisation, quoique ce ne soit pas strictement indispensable, et fasse même courir le risque de tomber dans divers pièges. Si l’image reste néanmoins universellement utilisée, c’est qu’elle présente par ailleurs des avantages, au premier rang desquels la possibilité d’embrasser d’un seul coup d’œil l’ensemble d’un phénomène ou d’un processus. C’est sur une image qu’on perçoit le mieux la correspondance entre un modèle et des points expérimentaux, et c’est donc d’ordinaire l’image qui conditionne le degré de conviction du chercheur.Néanmoins seuls le langage logique et le langage mathématique ont valeur démonstrative. Il suffit d’ébaucher une théorie de la mesure pour s’apercevoir que la transposition du domaine des nombres à celui des images ne peut être qu’approximative. On soulèvera également le problème épistémologique du statut exact du concept de modèle, c’est-à-dire de la possibilité même de faire correspondre une équation au monde réel. Il apparaîtra qu’une modélisation est toujours un compromis entre deux excès : l’excès de généralité et la surparamé-trisation.
APA, Harvard, Vancouver, ISO, and other styles
32

"ITER : un tokamak et bien plus encore." Revue Générale Nucléaire, no. 6 (November 2018): 26–27. http://dx.doi.org/10.1051/rgn/20186026.

Full text
Abstract:
Pour construire ITER, dix millions de pièces doivent être fabriquées, livrées et assemblées. Pour permettre à la machine de fonctionner, de véritables usines – cryogénie, alimentation électrique, chauffage du plasma, etc. – sont édifiées. Sur le site de Saint-Paul-lez-Durance, les « systèmes industriels » d’ITER occupent la majeure partie des 42 hectares dévolus à l’installation. ITER Organization, le « chef d’orchestre » de cette immense entreprise, mesure le nombre de tâches, en temps réel et avec le plus de précision possible, la distance qui le sépare de la « livraison », c’est-à-dire la mise en service de l’installation et la production d’un premier plasma à la fin de l’année 2025. Le planning général d’ITER en compte plus de 250 000.
APA, Harvard, Vancouver, ISO, and other styles
33

Fossé, Quentin, and Martin Dres. "Dysfonction diaphragmatique en réanimation : physiopathologie, diagnostic et prise en charge." Médecine Intensive Réanimation, July 24, 2020. http://dx.doi.org/10.37051/mir-00014.

Full text
Abstract:
Le diaphragme est un muscle très sollicité en réanimation et sa dysfonction est associée à une importante morbi-mortalité. Outre l’effet délétère bien établi de la ventilation mécanique sur la fonction diaphragmatique, d’autres facteurs de risque interviennent (sepsis notamment) ce qui justifie de remplacer le concept physiopathologique de dysfonction diaphragmatique induite par la ventilation pour celui de dysfonction diaphragmatique associée à la réanimation. La prévalence de la dysfonction diaphragmatique est élevée en réanimation puisqu’elle touche plus de 60 % des patients dès l’admission et jusqu’à 80 % des patients présentant un sevrage prolongé. En pratique, l’existence d’une dysfonction diaphragmatique est évoquée à l’heure du sevrage de la ventilation mécanique, en cas d’échecs répétés. Le diagnostic repose sur la mesure de la capacité du diaphragme à générer une pression mais une telle évaluation n’est pas réalisée en routine. L’échographie diaphragmatique qui permet une approche non invasive et un examen en temps réel de l’excursion et de l’épaississement du muscle pourrait constituer l’examen de choix mais ses modalités de réalisation et sa validité restent à déterminer. En l’absence de traitement curatif, la promotion d’efforts inspiratoires spontanés exercés dans des limites physiologiques reste à l’heure d’aujourd’hui la stratégie la plus raisonnable.
APA, Harvard, Vancouver, ISO, and other styles
34

Muller, Aurelia Marine, Claudia Thurnherr, and Daniel Algernon. "Intégration d’un système CND Impact Echo sur un drone." e-journal of nondestructive testing 28, no. 9 (September 2023). http://dx.doi.org/10.58286/28518.

Full text
Abstract:
L’automatisation, même partielle, des procédures de contrôle non-destructif des structures dans le domaine du génie civil présente de nombreux avantages. Parmi ses avantages, on peut citer une plus grande répétabilité des mesures, une diminution des erreurs liée au facteur humain ainsi que la réduction du risque de compromettre la sécurité des personnes. Cette étude explore le concept et le développement du projet UACIS (Uncrewed Aerial Concrete Inspection System), en particulier l’intégration d’un système de mesure Impact Echo. Le projet UACIS consiste à embarquer différentes méthodes de CND par ultrasons via des charges utile interchangeable sur un drone à hélice dans le but de faciliter l’inspection de structure en béton. En particulier, UACIS a pour but de faciliter l’inspection de zones en hauteur dont l’accès s’avère dangereux et difficile. Le drone utilisé dans cette étude est un robot commercial développé par ©Voliro Airbone Robotics qui a été conçu spécifiquement pour permettre un contact physique, en cours de vol, entre le système de mesure embarqué et la structure inspectée. Un système d’inspection Impact Echo, comprenant une sonde piézoélectrique et un élément de frappe solénoïde, a été intègre au drone. Cette méthode est communément utilisée pour l’inspection de structure en béton. L’élément de frappe permet de générer des ondes acoustiques dans le matériau, les ondes sont ensuite captées par la sonde piézoélectrique puis converties en signal A-scan et spectre de fréquence. L’analyse du spectre de fréquence et la connaissance de la vitesse des ondes dans le matériau permettent de caractériser la structure. Les différentes contraintes liées à l’intégration du CND impact écho au drone ainsi que les premiers résultats et mesures effectués seront présenter. Parmi les sujets abordés seront notamment les restrictions en matière de poids et de dimensions, la communication entre les différentes interfaces, la mise en place d’un transfert de données sans fil en temps réel entre le système CND/drone et l'interface utilisateur au sol, l’actionnement à distance de l’élément de frappe et de la sonde, les stratégies d'atténuation du bruit et de traitement du signal.
APA, Harvard, Vancouver, ISO, and other styles
35

Clarke, R. Allyn. "PHYSICAL OCEANOGRAPHY IN ATLANTIC CANADA." Proceedings of the Nova Scotian Institute of Science (NSIS) 43, no. 2 (November 1, 2006). http://dx.doi.org/10.15273/pnsis.v43i2.3639.

Full text
Abstract:
Physical oceanography has been practiced in Atlantic Canada since the beginnings of the science in the second half of the 19th century. Pursued largely as an applied science, its efforts have been directed toward providing information to mariners and other marine users. Early efforts focused on tidal observations to promote safe navigation. This was expanded in the early 20th century to regional studies in support of fisheries. In the second half of the 20th century, physical oceanography in Atlantic Canada grew to support the offshore development of oil and gas, provide more comprehensive environmental assessments of marine projects and processes, improve Search and Rescue responses and to better understand and predict climate change and variability.Oceanographers now have the capabilities to observe the ocean in near real-time using satellites as well as autonomous in situ instruments. The continued growth in computer power and other information technologies has permitted the development of operational ocean models that can provide real-time information and projections on oceanic conditions to a broad section of the marine community.L’océanographie physique est pratiquée au Canada atlantique depuis les débuts de cette science au cours de la deuxième moitié du XIXe siècle. Les travaux dans ce domaine, menés dans une grande mesure sous forme appliquée, sont axés principalement sur la fourniture de renseignements aux gens de mer et aux autres utilisateurs du milieu marin. Les premiers travaux ont porté sur les observations des marées afin d’assurer la sécurité en mer. Au début du XXe siècle, des études régionales ont été lancées pour appuyer les activités de pêche. Au cours de la deuxième moitié du XXe siècle, l’océanographie physique au Canada atlantique a continué de croître pour maintenant appuyer les projets de mise en valeur du pétrole et du gaz en milieu extracôtier, fournir des évaluations environnementales plus détaillées des projets en milieu marin et des processus liés à ce milieu, améliorer l’intervention dans le cadre d’opérations de recherche et de sauvetage, approfondir les connaissances sur le changement climatique et la variabilité et améliorer les prévisions relatives à ceux-ci. Les océanographes ont maintenant la capacité d’observer l’océan presque en temps réel grâce à des satellites et à des instruments autonomes in situ. L’améliorationcontinue de la puissance des ordinateurs et d’autres technologies de l’information a rendu possible l’élaboration de modèles océaniques opérationnels qui peuvent fournir des données et prévisions en temps réel sur les conditions océaniques à une part importante de la communauté maritime.
APA, Harvard, Vancouver, ISO, and other styles
36

Vitali-Rosati, Marcello, and Servanne Monjour. "Littérature et production de l'espace à l’ère numérique. L'éditorialisation de la Transcanadienne. Du spatial turn à Google maps." @nalyses. Revue des littératures franco-canadiennes et québécoise, August 25, 2017. http://dx.doi.org/10.18192/analyses.v12i3.2097.

Full text
Abstract:
À l’heure où l’espace que nous habitons est de plus en plus façonné par les outils numériques, pouvons-nous le façonner en l’éditorialisant ? La littérature peut-elle constituer un outil de production de l’espace ? Peut-elle nous permettre de nous réapproprier les lieux et les territoires en apparence dépossédés de toute valeur littéraire par les géants de l'information ? Pour le savoir, l’équipe de la Chaire de recherche du Canada sur les Écritures numériques a mis en place en 2015 un projet de recherche-action le long de l'autoroute transcanadienne. Cette route mythique qui traverse le Canada d’un océan à l’autre a en effet donné lieu à une large série de productions médiatiques : des images, des vidéos, des cartes, des textes d’histoire, des données numériques, mais aussi des récits littéraires. C’est ainsi que des infrastructures comme l’autoroute, les motels, se mêlent au discours et à l’imaginaire pour construire l'espace. Afin d’étudier cet espace hybride, nous avons entrepris de sillonner nous-mêmes l’autoroute transcanadienne dans un voyage qui nous a menés de Montréal à Calgary. Nous avons rendu compte en temps réel de notre road-trip sur différents réseaux sociaux, de manière à comprendre comment la littérature participe à la production de l'espace à l'ère du numérique en proposant différentes stratégies d'éditorialisation.
APA, Harvard, Vancouver, ISO, and other styles
37

Antonini, Thierry. "Contrôle automatisé de matériaux hétérogènes par imagerie TeraHertz." e-journal of nondestructive testing 28, no. 9 (September 2023). http://dx.doi.org/10.58286/28524.

Full text
Abstract:
Les matériaux hétérogènes sont utilisés dans l’industrie notamment pour alléger les structures ou renforcer certaines propriétés mécaniques ou chimiques propres à chacun des matériaux combinés tout en visant l’optimisation des cycles de production. Ils peuvent être déclinés sous la forme d’assemblages collés ou soudés ou sous forme de composites. Ils répondent à des enjeux de plus en plus élevés dans des secteurs exigeants comme l’aérospatial, la défense, les transports ou l’énergie. En raison de la complexité de leurs procédés de fabrication et d’un retour d’expérience limité sur ces matériaux en exploitation, ces derniers nécessitent des moyens de contrôle avancés permettant de détecter leurs défauts internes ou d’évaluer les propriétés internes qui pourraient notamment affecter leurs performances que ce soit au stade de la production ou en cours d’exploitation. Les matériaux assemblés peuvent être affectés par différents types de défaut, cohésif ou adhésif, tels que des porosités dans la colle, des défauts de polymérisation, des mauvaises transformations de la matière chauffée ou encore des décollements. Pour les matériaux composites, dans le cadre de leur production, il s’agit notamment de défauts d’imprégnation, de défauts d’alignement ou d’orientation des fibres alors qu’en cours d’exploitation, plutôt de délaminations ou de perte d’épaisseur. De ce fait, la possibilité d’apporter des garanties supplémentaires sur les performances de ces matériaux en s’appuyant sur un contrôle de leur volume intérieur, suscite un intérêt grandissant pour les techniques de contrôle non destructif et rapide pour qualifier 100% des produits en production et de suivre le vieillissement de ces matériaux en exploitation. Dans ce cadre, la technologie d’imagerie THz, méthode de contrôle non destructif rapide, sans contact et portative, est une solution prometteuse. Basée sur de nouvelles ondes électromagnétiques, appelées THz, elle associe une capacité de pénétration importante dans la plupart des matériaux diélectriques (i.e. non conducteurs), comme les polymères, élastomères et céramiques, avec une forte sensibilité de détection des hétérogénéités de la matière et de leur anisotropie en proposant une capacité de résolution d’imagerie compatible avec la taille des défauts courants recherchés par le monde industriel. Une technique d’imagerie THz innovante en mode réflexion ou transmission permet notamment de réaliser des cartographies 2D de leurs hétérogénéités en temps réel, compatible avec du contrôle à haute cadence sur ligne de production ou pour des pièces de grandes dimensions. Lors de cette communication, TERAKALIS, société spécialisée dans la fabrication d’équipements THz, présentera le domaine des ondes THz, les principales techniques de mesure, un état de la maturité des systèmes THz actuels avec leurs niveaux de performance et limites pour le contrôle de la qualité des assemblages collés ou soudés et aussi des matériaux composites. Elle s’appuiera sur des cas applicatifs automatisés en guise d’illustration dans le cadre de production ou d’exploitation.
APA, Harvard, Vancouver, ISO, and other styles
38

Henry, Arnaud, Jacques Defourny, Stéphane Nassaut, and Marthe Nyssens. "Numéro 69 - avril 2009." Regards économiques, October 12, 2018. http://dx.doi.org/10.14428/regardseco.v1i0.15533.

Full text
Abstract:
Concernant plus de 100.000 travailleurs, près de 800.000 familles et plus de 2.000 entreprises, le dispositif titre-service est au cœur de l’agenda politique compte tenu de l’importance du budget public mobilisé qui s’élève à plus d’un milliard d’euros pour 2009. Ce dispositif témoigne d’une évolution profonde des modes de régulation publique dans le champ des services aux personnes désormais ouvert à une mise en concurrence de prestataires très diversifiés. Ainsi des organisations aussi diverses que des ASBL, des entreprises d’insertion, des agences d’intérim, des PME ou des CPAS opèrent aujourd’hui au sein de ce dispositif. Ce numéro présente les résultats d’une recherche financée par Service public fédéral de la politique scientifique et réalisée par l’équipe économie sociale du CERISIS/CIRTES (UCL) et du centre d’économie sociale (ULg). Cette recherche porte sur la qualité de l’emploi et de l’organisation du service dans ce champ d’activité et ce de manière comparative entre les différents types d’opérateurs. Une des spécificités centrales du système titre-service est d’imposer une triangulation de la relation de service, en plaçant cette dernière sous l’égide d’une entreprise agréée. L’étude montre que la qualité d’emploi et de l’organisation du service est surtout garantie par une «triangulation» de la relation de service, c’est-à-dire un réel investissement de l’entreprise dans l’accompagnement du travailleur et de l’usager. Si certains prestataires, tels que les organisations d’aide au domicile (ASBL ou organisations publiques agréées par les régions) et les organisations d’économie sociale ou publiques, poursuivant une mission d’insertion, encadrent davantage leurs travailleurs et leurs utilisateurs, d’autres développent dans les faits, un mode de prestation «mandataire», dans lequel l’entreprise est avant tout chargée des formalités administratives mais où elle n’assure que peu d’encadrement de la relation de service tissée entre l’utilisateur et le travailleur. L’enjeu ici est de savoir dans quelles circonstances et dans quelle mesure une telle évolution est acceptable (voire souhaitable ?) pour les différentes parties prenantes, y compris bien sûr pour les travailleurs. Au sein des entreprises à but lucratif, il convient de différencier assez nettement les sociétés de travail intérimaire des autres sociétés commerciales, généralement des PME. Les sociétés d’intérim semblent privilégier leur capacité d’adaptation aux desiderata de leurs utilisateurs et la minimisation des coûts, au détriment de la qualité des emplois qu’elles rendent aussi flexibles que possible. Cette volonté de maximiser productivité et rentabilité semble être moins prégnante dans le chef des autres opérateurs privés à but lucratif hors intérim. Du point de vue financier, il faut souligner que si les prestataires bénéficient tous de la subvention titre-service, une diversité apparaît quant aux sources complémentaires de financement public (aides à l’emploi, subsides régionaux). Une analyse de la viabilité financière des différents types d’opérateurs titre-service s’avère particulièrement complexe compte tenu de cette diversité, des commissions paritaires compétentes et des performances différenciées en matière de qualité d’emploi et d’organisation de service. Il ressort des simulations qu’un travailleur équivalent temps plein (ETP) d’ancienneté nulle et sans aide à l’emploi dégage une marge positive (parfois faiblement) chez la plupart des prestataires. Avec aide à l’emploi (toujours sans ancienneté), un ETP est (très) rentable chez l’ensemble des prestataires, en particulier chez ceux qui cumulent diverses sources de financement. Par contre, après quatre ans d’ancienneté, la marge dégagée par un ETP est négative chez la quasi-totalité des prestataires compte tenu des effets liés à l’accroissement de l’ancienneté des travailleurs et à la dégressivité tant des aides à l’emploi que de certaines subventions régionales. Par conséquent, seuls les prestataires dont le taux d’activité (le rapport entre les heures de ménage prestées au domicile des utilisateurs – et donc subsidiées – et le total des heures payées au travailleur) est (très) élevé parviennent à maintenir une marge positive. Il va de soi que la rentabilité «globale» d’une organisation dépendra du nombre de travailleurs avec et sans aide à l’emploi ainsi que de l’ancienneté de l’ensemble du personnel. Différents enjeux doivent être pointés d’un point de vue de politique économique Même si la régulation du quasi-marché lié au titre-service a considérablement évolué, il est primordial que les pouvoirs publics s’assurent de la conformité des prestataires aux exigences de l’agrément qui leur est octroyé et qu’ils consolident la régulation du système par exemple par l’imposition de formation et d’un contrat à durée indéterminée après 6 mois. En effet, l’importance très considérable du financement public dans ce quasi-marché justifie qu’il soit nettement subordonné à la réalisation des objectifs définis par le dispositif, en particulier la création d’emplois de qualité et durables. Des risques de confusion entre des métiers pourtant distincts : l’étude montre que certaines organisations titre-service permettent la prestation de services qui relèvent des missions propres aux aides familiales. Les pouvoirs publics doivent donc être vigilants quant aux risques de confusion des métiers, d’autant plus que l’information est loin d’être claire pour les usagers. La plupart des aides à l’emploi sont dégressives sur deux à quatre ans alors que les coûts salariaux des entreprises augmentent du simple fait de l’ancienneté croissante du personnel et des sauts d’index. On peut ainsi douter de l’efficacité économique d’aides qui rendent confortable le lancement d’une entreprise titre-service tout en créant des incitants à la rotation des travailleurs; L’augmentation du prix et l’accessibilité du service : il serait utile de procéder à une étude de marché pour voir dans quelle mesure une marge de manœuvre existe encore. Si les augmentations antérieures de prix ne semblent pas avoir affecté le volume total des titres-services échangés, certains utilisateurs plus fragilisés ont sans doute été évincés. Pour maintenir leur accès au service, il faut peut-être réfléchir à des mécanismes complémentaires. En effet, il n’est pas nécessairement efficace d’associer deux objectifs (créer de l’emploi et rendre accessible le service à tous) à un même instrument. D’autres instruments complémentaires pourraient être envisagés telles qu’une intervention des employeurs à l’instar de ce qui se pratique en France pour le «chèque emploi service universel» (Cesu). Comme pour les chèques-repas, il s’agirait alors d’un élément de politique salariale. Des CPAS, par exemple, pourraient acheter des titres-services pour des usagers plus vulnérables.
APA, Harvard, Vancouver, ISO, and other styles
39

Henry, Arnaud, Jacques Defourny, Stéphane Nassaut, and Marthe Nyssens. "Numéro 69 - avril 2009." Regards économiques, October 12, 2018. http://dx.doi.org/10.14428/regardseco2009.04.02.

Full text
Abstract:
Concernant plus de 100.000 travailleurs, près de 800.000 familles et plus de 2.000 entreprises, le dispositif titre-service est au cœur de l’agenda politique compte tenu de l’importance du budget public mobilisé qui s’élève à plus d’un milliard d’euros pour 2009. Ce dispositif témoigne d’une évolution profonde des modes de régulation publique dans le champ des services aux personnes désormais ouvert à une mise en concurrence de prestataires très diversifiés. Ainsi des organisations aussi diverses que des ASBL, des entreprises d’insertion, des agences d’intérim, des PME ou des CPAS opèrent aujourd’hui au sein de ce dispositif. Ce numéro présente les résultats d’une recherche financée par Service public fédéral de la politique scientifique et réalisée par l’équipe économie sociale du CERISIS/CIRTES (UCL) et du centre d’économie sociale (ULg). Cette recherche porte sur la qualité de l’emploi et de l’organisation du service dans ce champ d’activité et ce de manière comparative entre les différents types d’opérateurs. Une des spécificités centrales du système titre-service est d’imposer une triangulation de la relation de service, en plaçant cette dernière sous l’égide d’une entreprise agréée. L’étude montre que la qualité d’emploi et de l’organisation du service est surtout garantie par une «triangulation» de la relation de service, c’est-à-dire un réel investissement de l’entreprise dans l’accompagnement du travailleur et de l’usager. Si certains prestataires, tels que les organisations d’aide au domicile (ASBL ou organisations publiques agréées par les régions) et les organisations d’économie sociale ou publiques, poursuivant une mission d’insertion, encadrent davantage leurs travailleurs et leurs utilisateurs, d’autres développent dans les faits, un mode de prestation «mandataire», dans lequel l’entreprise est avant tout chargée des formalités administratives mais où elle n’assure que peu d’encadrement de la relation de service tissée entre l’utilisateur et le travailleur. L’enjeu ici est de savoir dans quelles circonstances et dans quelle mesure une telle évolution est acceptable (voire souhaitable ?) pour les différentes parties prenantes, y compris bien sûr pour les travailleurs. Au sein des entreprises à but lucratif, il convient de différencier assez nettement les sociétés de travail intérimaire des autres sociétés commerciales, généralement des PME. Les sociétés d’intérim semblent privilégier leur capacité d’adaptation aux desiderata de leurs utilisateurs et la minimisation des coûts, au détriment de la qualité des emplois qu’elles rendent aussi flexibles que possible. Cette volonté de maximiser productivité et rentabilité semble être moins prégnante dans le chef des autres opérateurs privés à but lucratif hors intérim. Du point de vue financier, il faut souligner que si les prestataires bénéficient tous de la subvention titre-service, une diversité apparaît quant aux sources complémentaires de financement public (aides à l’emploi, subsides régionaux). Une analyse de la viabilité financière des différents types d’opérateurs titre-service s’avère particulièrement complexe compte tenu de cette diversité, des commissions paritaires compétentes et des performances différenciées en matière de qualité d’emploi et d’organisation de service. Il ressort des simulations qu’un travailleur équivalent temps plein (ETP) d’ancienneté nulle et sans aide à l’emploi dégage une marge positive (parfois faiblement) chez la plupart des prestataires. Avec aide à l’emploi (toujours sans ancienneté), un ETP est (très) rentable chez l’ensemble des prestataires, en particulier chez ceux qui cumulent diverses sources de financement. Par contre, après quatre ans d’ancienneté, la marge dégagée par un ETP est négative chez la quasi-totalité des prestataires compte tenu des effets liés à l’accroissement de l’ancienneté des travailleurs et à la dégressivité tant des aides à l’emploi que de certaines subventions régionales. Par conséquent, seuls les prestataires dont le taux d’activité (le rapport entre les heures de ménage prestées au domicile des utilisateurs – et donc subsidiées – et le total des heures payées au travailleur) est (très) élevé parviennent à maintenir une marge positive. Il va de soi que la rentabilité «globale» d’une organisation dépendra du nombre de travailleurs avec et sans aide à l’emploi ainsi que de l’ancienneté de l’ensemble du personnel. Différents enjeux doivent être pointés d’un point de vue de politique économique Même si la régulation du quasi-marché lié au titre-service a considérablement évolué, il est primordial que les pouvoirs publics s’assurent de la conformité des prestataires aux exigences de l’agrément qui leur est octroyé et qu’ils consolident la régulation du système par exemple par l’imposition de formation et d’un contrat à durée indéterminée après 6 mois. En effet, l’importance très considérable du financement public dans ce quasi-marché justifie qu’il soit nettement subordonné à la réalisation des objectifs définis par le dispositif, en particulier la création d’emplois de qualité et durables. Des risques de confusion entre des métiers pourtant distincts : l’étude montre que certaines organisations titre-service permettent la prestation de services qui relèvent des missions propres aux aides familiales. Les pouvoirs publics doivent donc être vigilants quant aux risques de confusion des métiers, d’autant plus que l’information est loin d’être claire pour les usagers. La plupart des aides à l’emploi sont dégressives sur deux à quatre ans alors que les coûts salariaux des entreprises augmentent du simple fait de l’ancienneté croissante du personnel et des sauts d’index. On peut ainsi douter de l’efficacité économique d’aides qui rendent confortable le lancement d’une entreprise titre-service tout en créant des incitants à la rotation des travailleurs; L’augmentation du prix et l’accessibilité du service : il serait utile de procéder à une étude de marché pour voir dans quelle mesure une marge de manœuvre existe encore. Si les augmentations antérieures de prix ne semblent pas avoir affecté le volume total des titres-services échangés, certains utilisateurs plus fragilisés ont sans doute été évincés. Pour maintenir leur accès au service, il faut peut-être réfléchir à des mécanismes complémentaires. En effet, il n’est pas nécessairement efficace d’associer deux objectifs (créer de l’emploi et rendre accessible le service à tous) à un même instrument. D’autres instruments complémentaires pourraient être envisagés telles qu’une intervention des employeurs à l’instar de ce qui se pratique en France pour le «chèque emploi service universel» (Cesu). Comme pour les chèques-repas, il s’agirait alors d’un élément de politique salariale. Des CPAS, par exemple, pourraient acheter des titres-services pour des usagers plus vulnérables.
APA, Harvard, Vancouver, ISO, and other styles
40

Fougeyrollas, Patrick. "Handicap." Anthropen, 2016. http://dx.doi.org/10.17184/eac.anthropen.013.

Full text
Abstract:
Handicap : nom commun d’origine anglo-saxonne dont l’étymologie proviendrait de Hand in Cap, une pratique populaire pour fixer la valeur d'échange d’un bien. Dans le domaine des courses de chevaux, le handicap vise à ajouter du poids aux concurrents les plus puissants pour égaliser les chances de gagner la course pour tous les participants. Il apparait dans le dictionnaire de l’Académie française dans les années 1920 dans le sens de mettre en état d’infériorité. Son utilisation pour désigner les infirmes et invalides est tardive, après les années 1950 et se généralise au début des années 1970. Par un glissement de sens, le terme devient un substantif qualifiant l’infériorité intrinsèque des corps différentiés par leurs atteintes anatomiques, fonctionnelles, comportementales et leur inaptitude au travail. Les handicapés constituent une catégorisation sociale administrative aux frontières floues créée pour désigner la population-cible de traitements socio-politiques visant l’égalisation des chances non plus en intervenant sur les plus forts mais bien sur les plus faibles, par des mesures de réadaptation, de compensation, de normalisation visant l’intégration sociale des handicapés physiques et mentaux. Ceci rejoint les infirmes moteurs, les amputés, les sourds, les aveugles, les malades mentaux, les déficients mentaux, les invalides de guerre, les accidentés du travail, de la route, domestiques et par extension tous ceux que le destin a doté d’un corps différent de la normalité instituée socio-culturellement dans un contexte donné, ce que les francophones européens nomment les valides. Dans une perspective anthropologique, l’existence de corps différents est une composante de toute société humaine (Stiker 2005; Fougeyrollas 2010; Gardou 2010). Toutefois l’identification de ce qu’est une différence signifiante pour le groupe culturel est extrêmement variée et analogue aux modèles d’interprétation proposés par François Laplantine (1993) dans son anthropologie de la maladie. Ainsi le handicap peut être conçu comme altération, lésion ou comme relationnel, fonctionnel, en déséquilibre. Le plus souvent le corps différent est un corps mauvais, marqueur symbolique culturel du malheur lié à la transgression d’interdits visant à maintenir l’équilibre vital de la collectivité. La responsabilité de la transgression peut être endogène, héréditaire, intrinsèque aux actes de la personne, de ses parents, de ses ancêtres, ou exogène, due aux attaques de microbes, de virus, de puissances malveillantes, génies, sorts, divinités, destin. Plus rarement, le handicap peut être un marqueur symbolique de l’élection, comme porteur d’un pouvoir bénéfique singulier ou d’un truchement avec des entités ambiantes. Toutefois être handicapé, au-delà du corps porteur de différences signifiantes, n’implique pas que l’on soit malade. Avec la médicalisation des sociétés développées, une fragmentation extrême du handicap est liée au pouvoir biomédical d’attribuer des diagnostics attestant du handicap, comme garde-barrière de l’accès aux traitements médicaux, aux technologies, à la réadaptation, aux programmes sociaux, de compensation ou d’indemnisation, à l’éducation et au travail protégé ou spécial. Les avancées thérapeutiques et de santé publique diminuent la mortalité et entrainent une croissance continue de la morbidité depuis la Deuxième Guerre mondiale. Les populations vivant avec des conséquences chroniques de maladies, de traumatismes ou d’atteintes à l’intégrité du développement humain augmentent sans cesse. Ceci amène l’Organisation mondiale de la santé (OMS) à s’intéresser non plus aux diagnostics du langage international médical, la Classification internationale des maladies, mais au développement d’une nosologie de la chronicité : la Classification internationale des déficiences, des incapacités et des handicaps qui officialise une perspective tridimensionnelle du handicap (WHO 1980). Cette conceptualisation biomédicale positiviste situe le handicap comme une caractéristique intrinsèque, endogène à l’individu, soit une déficience anatomique ou physiologique entrainant des incapacités dans les activités humaines normales et en conséquence des désavantages sociaux par rapport aux individus ne présentant pas de déficiences. Le modèle biomédical ou individuel définit le handicap comme un manque, un dysfonctionnement appelant à intervenir sur la personne pour l’éduquer, la réparer, l’appareiller par des orthèses, des prothèses, la rétablir par des médicaments, lui enseigner des techniques, des savoirs pratiques pour compenser ses limitations et éventuellement lui donner accès à des subsides ou services visant à minimiser les désavantages sociaux, principalement la désaffiliation sociale et économique inhérente au statut de citoyen non performant ( Castel 1991; Foucault 1972). À la fin des années 1970 se produit une transformation radicale de la conception du handicap. Elle est étroitement associée à la prise de parole des personnes concernées elles-mêmes, dénonçant l’oppression et l’exclusion sociale dues aux institutions spéciales caritatives, privées ou publiques, aux administrateurs et professionnels qui gèrent leur vie. C’est l’émergence du modèle social du handicap. Dans sa tendance sociopolitique néomarxiste radicale, il fait rupture avec le modèle individuel en situant la production structurelle du handicap dans l’environnement socio-économique, idéologique et matériel (Oliver 1990). La société est désignée responsable des déficiences de son organisation conçue sur la performance, la norme et la productivité entrainant un traitement social discriminatoire des personnes ayant des déficiences et l’impossibilité d’exercer leurs droits humains. Handicaper signifie opprimer, minoriser, infantiliser, discriminer, dévaloriser, exclure sur la base de la différence corporelle, fonctionnelle ou comportementale au même titre que d’autres différences comme le genre, l’orientation sexuelle, l’appartenance raciale, ethnique ou religieuse. Selon le modèle social, ce sont les acteurs sociaux détenant le pouvoir dans l’environnement social, économique, culturel, technologique qui sont responsables des handicaps vécus par les corps différents. Les années 1990 et 2000 ont été marquées par un mouvement de rééquilibrage dans la construction du sens du handicap. Réintroduisant le corps sur la base de la valorisation de ses différences sur les plans expérientiels, identitaires et de la créativité, revendiquant des modes singuliers d’être humain parmi la diversité des êtres humains (Shakespeare et Watson 2002; French et Swain 2004), les modèles interactionnistes : personne, environnement, agir, invalident les relations de cause à effet unidirectionnelles propres aux modèles individuels et sociaux. Épousant la mouvance de la temporalité, la conception du handicap est une variation historiquement et spatialement située du développement humain comme phénomène de construction culturelle. Une construction bio-socio-culturelle ouverte des possibilités de participation sociale ou d’exercice effectif des droits humains sur la base de la Déclaration des droits de l’Homme, des Conventions internationales de l’Organisation des Nations-Unies (femmes, enfants, torture et maltraitance) et en l’occurrence de la Convention relative aux droits des personnes handicapées (CDPH) (ONU 2006; Quinn et Degener 2002; Saillant 2007). Par personnes handicapées, on entend des personnes qui présentent des incapacités physiques, mentales, intellectuelles ou sensorielles dont l’interaction avec diverses barrières peut faire obstacle à leur pleine et effective participation à la société sur la base de l’égalité avec les autres. (CDPH, Art 1, P.4). Fruit de plusieurs décennies de luttes et de transformations de la conception du handicap, cette définition représente une avancée historique remarquable autant au sein du dernier des mouvements sociaux des droits civiques, le mouvement international de défense des droits des personnes handicapées, que de la part des États qui l’ont ratifiée. Malgré le fait que l’on utilise encore le terme personne handicapée, le handicap ne peut plus être considéré comme une caractéristique de la personne ni comme un statut figé dans le temps ni comme un contexte oppressif. Il est le résultat d’une relation dont il est nécessaire de décrire les trois composantes anthropologiques de l’être incarné : soi, les autres et l’action ou l’habitus pour en comprendre le processus de construction singulier. Le handicap est situationnel et relatif , sujet à changement, puisqu’il s’inscrit dans une dynamique interactive temporelle entre les facteurs organiques, fonctionnels, identitaires d’une part et les facteurs contextuels sociaux, technologiques et physiques d’autre part, déterminant ce que les personnes ont la possibilité de réaliser dans les habitudes de vie de leurs choix ou culturellement attendues dans leurs collectivités. Les situations de handicap ne peuvent être prédites à l’avance sur la base d’une évaluation organique, fonctionnelle, comportementale, identitaire ou de la connaissance de paramètres environnementaux pris séparément sans réintroduire leurs relations complexes avec l’action d’un sujet définissant le sens ou mieux incarnant la conscience vécue de cette situation de vie. Suite au succès de l’expression personne en situation du handicap en francophonie, on remarque une tendance à voir cette nouvelle appellation remplacer celle de personne handicapée. Ceci est généralement interprété comme une pénétration de la compréhension du modèle interactionniste et socio constructiviste. Toutefois il est inquiétant de voir poindre des dénominations comme personnes en situation de handicap physique, mental, visuel, auditif, intellectuel, moteur. Cette dérive démontre un profond enracinement ontologique du modèle individuel. Il est également le signe d’une tendance à recréer un statut de personne en situation de handicap pour remplacer celui de personne handicapée. Ceci nécessite une explication de la notion de situation de handicap en lien avec le concept de participation sociale. Une personne peut vivre à la fois des situations de handicap et des situations de participation sociale selon les activités qu’elle désire réaliser, ses habitudes de vie. Par exemple une personne ayant des limitations intellectuelles peut vivre une situation de handicap en classe régulière et avoir besoin du soutien d’un éducateur spécialisé mais elle ne sera pas en situation de handicap pour prendre l’autobus scolaire pour se rendre à ses cours. L’expression personne vivant des situations de handicap semble moins propice à la dérive essentialiste que personne en situation de handicap. Le phénomène du handicap est un domaine encore largement négligé mais en visibilité croissante en anthropologie. Au-delà des transformations de sens donné au terme de handicap comme catégorie sociale, utile à la définition de cibles d’intervention, de traitements sociaux, de problématiques sociales pour l’élaboration de politiques et de programmes, les définitions et les modèles présentés permettent de décrire le phénomène, de mieux le comprendre mais plus rarement de formuler des explications éclairantes sur le statut du handicap d’un point de vue anthropologique. Henri-Jacques Stiker identifie, en synthèse, cinq théories du handicap co-existantes dans le champ contemporain des sciences sociales (2005). La théorie du stigmate (Goffman 1975). Le fait du marquage sur le corps pour indiquer une défaveur, une disgrâce, un discrédit profond, constitue une manière de voir comment une infirmité donne lieu à l’attribution d’une identité sociale virtuelle, en décalage complet avec l’identité sociale réelle. Le handicap ne peut être pensé en dehors de la sphère psychique, car il renvoie toujours à l’image de soi, chez celui qui en souffre comme celui qui le regarde. Le regard d’autrui construit le regard que l’on porte sur soi mais en résulte également (Stiker 2005 :200). La théorie culturaliste qui met en exergue la spécificité des personnes handicapées, tout en récusant radicalement la notion même de handicap, est enracinée dans le multiculturalisme américain. Les personnes handicapées se constituent en groupes culturels avec leurs traits singuliers, à partir de conditions de vie, d’une histoire (Stiker 2005). Par exemple au sein des Disability Studies ou Études sur le handicap, il est fréquent de penser que seuls les corps différents concernés peuvent véritablement les pratiquer et en comprendre les fondements identitaires et expérientiels. L’exemple le plus probant est celui de la culture sourde qui se définit comme minorité ethno-linguistique autour de la langue des signes et de la figure identitaire du Sourd. On fera référence ici au Deaf Studies (Gaucher 2009). La théorie de l’oppression (Oliver 1990). Elle affirme que le handicap est produit par les barrières sociales en termes de déterminants sociologiques et politiques inhérents au système capitaliste ou productiviste. Les personnes sont handicapées non par leurs déficiences mais par l’oppression de l’idéologie biomédicale, essentialiste, individualiste construite pour empêcher l’intégration et l’égalité. Ce courant des Disability Studies s’inscrit dans une mouvance de luttes émancipatoires des personnes opprimées elles-mêmes (Stiker 2005 : 210; Boucher 2003) La théorie de la liminalité (Murphy 1990). Par cette différence dont ils sont les porteurs, les corps s’écartent de la normalité attendue par la collectivité et sont placés dans une situation liminale, un entre-deux qu’aucun rite de passage ne semble en mesure d’effacer, de métamorphoser pour accéder au monde des corps normaux. Cette théorie attribue un statut anthropologique spécifique au corps handicapé sans faire référence obligatoire à l’oppression, à l’exclusion, à la faute, ou au pouvoir. Marqués de façon indélébile, ils demeurent sur le seuil de la validité, de l’égalité, des droits, de l’humanité. La théorie de l’infirmité comme double, la liminalité récurrente de Stiker (2005). L’infirmité ne déclenche pas seulement la liminalité mais en référant à la psychanalyse, elle est un véritable double. La déficience est là, nous rappelant ce que nous n’aimons pas et ne voulons pas être, mais elle est notre ombre. Nous avons besoin de l’infirmité, comme de ceux qui la portent pour nous consoler d’être vulnérable et mortel tout autant que nous ne devons pas être confondus avec elle et eux pour continuer à nous estimer. Ils sont, devant nous, notre normalité, mais aussi notre espoir d’immortalité (Stiker 2005 : 223)
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography