Auswahl der wissenschaftlichen Literatur zum Thema „Mesures sur pointes“

Geben Sie eine Quelle nach APA, MLA, Chicago, Harvard und anderen Zitierweisen an

Wählen Sie eine Art der Quelle aus:

Machen Sie sich mit den Listen der aktuellen Artikel, Bücher, Dissertationen, Berichten und anderer wissenschaftlichen Quellen zum Thema "Mesures sur pointes" bekannt.

Neben jedem Werk im Literaturverzeichnis ist die Option "Zur Bibliographie hinzufügen" verfügbar. Nutzen Sie sie, wird Ihre bibliographische Angabe des gewählten Werkes nach der nötigen Zitierweise (APA, MLA, Harvard, Chicago, Vancouver usw.) automatisch gestaltet.

Sie können auch den vollen Text der wissenschaftlichen Publikation im PDF-Format herunterladen und eine Online-Annotation der Arbeit lesen, wenn die relevanten Parameter in den Metadaten verfügbar sind.

Zeitschriftenartikel zum Thema "Mesures sur pointes"

1

Arnould, J. D., F. Podevin und L. Vincent. „Mesures et modélisation RF de capacités MIM intégrées“. J3eA 21 (2022): 1001. http://dx.doi.org/10.1051/j3ea/20221001.

Der volle Inhalt der Quelle
Annotation:
Il s’agit de former des étudiants de Master 2 et des ingénieurs en formation continue à la mesure RF sous pointes pour caractériser des capacités Métal-Isolant-Métal (MIM) intégrées sur un wafer. La problématique est d’obtenir le modèle électrique le plus fiable possible de ces capacités entre 40MHz et 26GHz tout en s’affranchissant des contraintes de mesures et des éléments d’accès RF à cette capacité.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
2

Temimi, M., und S. Bennis. „La prévision en temps réel des charges de polluants dans un réseau d'assainissement urbain“. Revue des sciences de l'eau 15, Nr. 3 (12.04.2005): 661–75. http://dx.doi.org/10.7202/705474ar.

Der volle Inhalt der Quelle
Annotation:
L'objectif principal du présent travail est la prévision en temps réel des charges de polluants dans un réseau d'assainissement urbain. La méthodologie préconisée dans cette étude se base sur deux outils. En premier lieu, le modèle de la courbe de tarage a été utilisé afin d'exprimer la corrélation entre les charges de polluants et les débits de ruissellement. Ce modèle a été sélectionné en raison de sa simplicité et de la disponibilité des paramètres nécessaires pour sa mise en œuvre. L'hypothèse de synchronisme systématique entre les pointes de l'hydrogramme et du pollutogramme dans ce modèle constitue une des faiblesses que nous proposons de surmonter dans le cadre du présent travail. Ainsi, le modèle de la courbe de tarage a été modifié par l'introduction d'un terme de déphasage qu'on identifie en temps réel. D'autre part, la constance des paramètres mis en jeu dans le modèle classique de la courbe de tarage constitue un autre obstacle pour la reproductibilité des phénomènes au cours du même événement et d'un événement à l'autre. Afin de surmonter cette deuxième faiblesse, le filtre de Kalman a été utilisé pour identifier les paramètres d'un modèle dynamique en fonction des erreurs de prévision constatées à chaque pas de temps. La méthodologie a été testée avec succès sur le secteur I de la ville de Verdun du Québec. Le modèle établi a été validé à l'aide de trois critères de performance, à savoir, le coefficient de Nash, le rapport des pointes mesurées/prévues et leur déphasage. Selon ces critères, les résultats trouvés par le modèle dynamique concordent bien avec les mesures.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
3

Stevenson, Andrew C., Anne-Sophie Brazeau, Kaberi Dasgupta und Nancy A. Ross. „Synthèse des données probantes - Accès aux points de vente d’aliments au détail de proximité, alimentation et indice de masse corporelle au Canada : revue systématique“. Promotion de la santé et prévention des maladies chroniques au Canada 39, Nr. 10 (Oktober 2019): 285–307. http://dx.doi.org/10.24095/hpcdp.39.10.01f.

Der volle Inhalt der Quelle
Annotation:
Introduction On s’intéresse de plus en plus au rôle de l’environnement alimentaire dans l’alimentation sous-optimale, le surpoids et l’obésité. Cette revue analyse les données probantes sur le lien entre l’environnement de la vente alimentaire au détail, la qualité de l’alimentation et l’indice de masse corporelle (IMC) au sein de la population canadienne. Méthodologie Nous avons réalisé une recherche systématique par mot-clé dans deux bases de données bibliométriques. Nous avons calculé les proportions d’associations concluantes pour chaque résultat et exposition d’intérêt. Nous avons comparé les mesures absolues et relatives de l’exposition à l’environnement alimentaire et consigné le cadre théorique des associations. Nous avons examiné deux enjeux méthodologiques importants relevés a priori : la mesure de l’IMC et la validation des données sous-jacentes sur l’environnement de la vente alimentaire au détail. Résultats Dix-sept études ont été incluses dans cette revue. Nous avons relevé peu de preuves d’un lien entre l’environnement alimentaire et la qualité de l’alimentation, mais quelques preuves d’un lien entre l’environnement alimentaire et l’IMC. Les mesures relatives de l’environnement alimentaire étaient plus souvent associées à un résultat attendu que les mesures absolues, mais de nombreux résultats n’étaient pas concluants. La plupart des études ont adopté des cadres théoriques globaux, les méthodologies demeurant néanmoins semblables quelles que soient les approches théoriques choisies. L’IMC autodéclaré était une mesure courante et nous n’avons repéré ni base de données « de référence » sur les points de vente d’aliments ni consensus sur les meilleures façons de valider les données. Conclusion Si peu de données probantes étayaient un lien entre l’environnement alimentaire et la qualité de l’alimentation, les preuves d’un lien entre l’environnement alimentaire et l’IMC dans la population canadienne se sont révélées plus solides. Il faudrait disposer d’études à grande portée géographique faisant appel à de nouvelles méthodes pour mesurer les résultats en matière d’alimentation et de santé et recourir à des mesures relatives de l’environnement alimentaire dérivées des systèmes d’information géographique. Il serait également utile d’établir un consensus sur ce qu’est une base de données de référence sur l’environnement alimentaire et sur la méthodologie associée à sa validation.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
4

Galo, Mauricio, Antonio M. G. Tommaselli und Júlio K. Hasegawa. „The influence of subpixel measurement on digital camera calibration“. Revue Française de Photogrammétrie et de Télédétection, Nr. 198-199 (21.04.2014): 62–70. http://dx.doi.org/10.52638/rfpt.2012.73.

Der volle Inhalt der Quelle
Annotation:
Le but de cette étude est d’évaluer l’influence de la mesure de points dans les images avec une précision subpixellaire, et sa contribution à l’étalonnage des caméras numériques. De plus, l’effet des mesures subpixellaires sur la détermination des coordonnées 3D dans l’espace objet est évalué à partir de points de contrôle. Dans ce but, unalgorithme semi-automatique a été implémenté pour la détermination subpixellaire de points d’intérêt, basé sur un opérateur de Förstner. Des expériences ont été réalisées sur un bloc d’images acquises avec une caméra multispectrale DuncanTech MS3100-CIR. L’influence des mesures subpixellaires dans un ajustement par moindres carrés a été évaluée en comparant l’écart-type estimé des paramètres dans deux cas : avec une mesure manuelle (précision pixellaire) et avec une estimation subpixellaire. De plus, l’influence des mesures subpixellaires sur la reconstruction 3D a été analysée. A partir des résultats obtenus, i.e. la réduction de l’écart-type sur les paramètres d’orientation interne et del’erreur relative de la reconstruction 3D, il est démontré que les mesures de précision subpixellaire sont pertinentes pour certains travaux photogrammétriques, notamment ceux pour lesquels la qualité métrique est très importante, comme l’étalonnage de caméras.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
5

Voisin, Guillaume, Yasmina Boussafir und Delphine Jacqueline. „Comparaison Plaque et Dynaplaque. Résultats d’essais croisés en conditions maîtrisées“. Revue Française de Géotechnique, Nr. 174 (2023): 1. http://dx.doi.org/10.1051/geotech/2023004.

Der volle Inhalt der Quelle
Annotation:
La mesure du module de déformabilité, plus classiquement appelée portance, sur les plates-formes d’infrastructures est un élément clé de l’assurance qualité. La co-existence de matériels de mesures différents est une réalité fréquente sur chantier et la tentation de faire des essais croisés pour tester ou valider les performances réciproques des matériels est forte. Les résultats présentés ici ont montré que la dispersion en un point donné est liée au corps d’épreuve et l’emporte sur l’exactitude des appareils de mesure que les auteurs ont testés (Plaque et Dynaplaques). Il est donc inutile de réaliser des essais croisés sur chantier avec ces deux type d’appareils car ils donnent sur un grand nombre de mesures les mêmes résultats. Les appareils de mesure doivent être utilisés en priorité, et en toute connaissance de leurs limites, comme des outils de détection d’anomalies sur une plate-forme. La multiplication des points de mesure améliore la connaissance des hétérogénéités de la plate-forme.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
6

Coddeville, P., A. Charron, H. Plaisance und J. C. Galloo. „Détermination à l'aide d'un modèle récepteur des zones sources à l'origine des concentrations mesurées dans les précipitations collectées en trois sites du réseau MERA (France)“. Revue des sciences de l'eau 15 (12.04.2005): 205–27. http://dx.doi.org/10.7202/705493ar.

Der volle Inhalt der Quelle
Annotation:
Ces travaux s'inscrivent dans le cadre du programme national de MEsure des Retombées Atmosphériques (MERA). Ils portent sur la recherche de l'origine des précipitations collectées entre 1997 et 1999 dans trois (Morvan, Iraty, Le Casset) des onze stations du réseau MERA localisées en différents points du territoire français. Deux méthodes statistiques ont été utilisées dans cette étude. Les régions à l'origine des fortes concentrations mesurées au site récepteur ont d'abord été déterminées à l'aide d'un modèle (méthode de Seibert) combinant les mesures réalisées sur site et les rétrotrajectoires de masses d'air puis, dans un second temps les différents profils de transport atmosphérique, leur fréquence et concentrations associées ont été évaluées à l'aide d'une classification par Nuées Dynamiques (méthode K-means/distance Euclidienne simple) des rétrotrajectoires de masses d'air. Le test de Kruskal-Wallis a été utilisé pour vérifier si les médianes des concentrations associées à chaque classe sont statistiquement différentes. L'étude réalisée à Iraty (Pyrénées) et au Casset (Alpes) a montré que ces deux stations sont influencées différemment du Morvan. Plus exactement, ces deux sites ne sont pas, ou pratiquement pas, influencés par les zones d'Europe centrale ou du Nord-Ouest fortement émettrices de SO2, de NOx et de NH3. Seul le pH des précipitations collectées à Iraty semble dépendre des émissions de SO2 et de NOx d'une de ces zones. Iraty et le Casset sont très influencées par les émissions anthropiques et par les poussières d'origine terrestres en provenance d'Afrique du Nord. Néanmoins, les niveaux de concentrations mesurés dans les flux en provenance d'Afrique du Nord sont similaires pour Iraty, le Casset et le Morvan (sauf en ions calcium, pour lequel le Casset et Iraty montrent de fortes concentrations). Une autre région européenne peut influencer les niveaux en composés acidifiants mesurés au Casset, il s'agit de l'Italie et de la zone localisée au niveau de l'ex-Yougoslavie. Mais, les niveaux de concentrations qui en résultent sont faibles par rapport à ceux mesurés dans certains flux arrivant au Morvan.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
7

Capellier, M., C. Picoche und A. Deguin. „Devenir du CODB dans les réseaux de distribution Etude de 2 cas“. Revue des sciences de l'eau 5 (12.04.2005): 51–67. http://dx.doi.org/10.7202/705153ar.

Der volle Inhalt der Quelle
Annotation:
Cet article rapporte les résultats de campagnes de mesure de Carbone Organique Dissous Biodégradable sur 2 sites en exploitation. Les mesures de CODB ont été effectuées par la méthode rom et tom. La première partie de l'étude concerne le site de KERNE UHEL. Il s'agit d'une usine de traitement d'eau de surface comprenant une étape d'ozonation suivie d'une filtration sur CAG récemment mise en place. L'ozonation provoque une augmentation de CODB de 0,3 à 0,6 mg O. Le CAG élimine le CODB : on a 100 % d'élimination lorsqu'il est neuf, et jusqu'à 80 % d'élimination sur un pilote après 1 an de fonctionnement. Dans le réseau, an observe une diminution du CODB lorsque la concentration de celui-ci est de 0,6 - 0,7 mg 1-1 dans l'eau traitée, cela malgré la présence de chlore libre. Lorsque le CODB de l'eau traitée est de 0,14 mgl-1 (après mise en route de la filière CAG) l'évolution dans le réseau est beaucoup plus difficile à mesurer (0,14 < CODB < 0,27 mg l-1). Le deuxième site étudié est le réseau de VIENNE-BRIANCE. 4 campagnes de mesures effectuées entre Juin et Août 1991 sur 10 points de prélèvement, montrent qu'il y a consommation de CODB, surtout en période chaude et aux extrémités du réseau. On a également des relargages de CODB, un nombre significatif de valeurs se trouvant au-dessus de la valeur maximale observée à l'usine. On remarque une grande variabilité des valeurs sur le réseau (< 0,1 à 0,6 mg l-1) en comparaison avec la gamme de valeurs obtenues sur l'eau traitée (0,21- 0,30 mg l-1).
APA, Harvard, Vancouver, ISO und andere Zitierweisen
8

ROBLIN, THOMAS. „Sur l'ergodicité rationnelle et les propriétés ergodiques du flot géodésique dans les variétés hyperboliques“. Ergodic Theory and Dynamical Systems 20, Nr. 6 (Dezember 2000): 1785–819. http://dx.doi.org/10.1017/s0143385700000997.

Der volle Inhalt der Quelle
Annotation:
Cet article est consacré à la théorie ergodique du flot géodésique sur le fibré unitaire tangent d'une variété hyperbolique relativement à la mesure de Sullivan associée à une mesure conforme de Patterson–Sullivan. Nous prouvons notamment que si le flot géodésique est ergodique alors il est rationnellement ergodique de type asymptotique donné par la série de Poincaré du groupe d'isométries discret associé. Pour ce faire, de nouveaux résultats sur les mesures de Patterson–Sullivan sont introduits. Nous obtenons en conséquence des résultats généraux d'équirépartition asymptotique concernant la série de Poincaré. Nous approfondissons sur d'autres points les propriétés ergodiques du flot géodésique. Ces résultats se généralisent directement pour un groupe agissant sur un espace CAT$(-1)$.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
9

PISTONE, Frédéric, Yvan BAILLION und Sandrine MATHIEU. „Les Missions Spatiales Hyperspectrales Developpées Par Thales Alenia Space“. Revue Française de Photogrammétrie et de Télédétection 224, Nr. 1 (22.12.2022): 9–10. http://dx.doi.org/10.52638/rfpt.2022.620.

Der volle Inhalt der Quelle
Annotation:
Embarqué sur la plateforme ENVISAT, le spectro-imageur MERIS développé par Thales Alenia Space a permis de mesurer, à partir de 1993 et jusqu’en 2012 les paramètres environnementaux notamment de la couleur de l’Océan au large et sur les zones côtières. Avec le programme Copernicus de l’Union Européenne s’est ouvert en 2014 une évolution vers des mesures opérationnelles grâce aux satellites Sentinel 3 dédiés aux océans et équipés d’une nouvelle génération de spectro-imageurs, OLCI, héritiers de MERIS; quatre satellites sont programmée afin d’assurer la continuité des mesures sur de longues séries temporelles. A l’horizon 2029, le programme Copernicus va se diversifier avec un satellite d’imagerie hyperspectrale confié à Thales Alenia Space, Sentinel-10 ou CHIME (Copernicus Hyperspectral Imaging Mission for the Environment). Cet ensemble de réalisations complété par le développement de sondeurs atmosphériques hyperspectraux comme IASI sur METOP et IRS sur METEOSAT, constituent une expertise technique de pointe, unique au monde.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
10

Aïfa, Adam, Oliver Sorel und Morgane Pierre-Jean. „Évaluation de la précision des analyses céphalométriques automatisées et semi-automatisées sur téléradiographies de profil“. Revue d'Orthopédie Dento-Faciale 56, Nr. 4 (Dezember 2022): 329–40. http://dx.doi.org/10.1051/odf/2022038.

Der volle Inhalt der Quelle
Annotation:
Objectifs : cette étude consiste à évaluer la capacité des logiciels Webceph, Vatech, et Logos à repérer automatiquement les points céphalométriques et à établir des mesures fiables. La précision des mesures céphalométriques automatique (A) et semi-automatique (SA) est établie, par rapport à la référence manuelle (M) Geogebra. Matériels et méthodes : 70 téléradiographies de profil sont sélectionnées aléatoirement et analysées par les 3 méthodes (A, SA, M). Sur chaque cliché, 13 points céphalométriques sont repérés pour la réalisation de 16 mesures squelettiques et dento-alvéolaires (13 angulaires et 3 linaires). Un test t de student (ou de Wilcoxon en cas de distribution anormale des données) a été réalisé pour mesurer les biais systématiques. Le coefficient de corrélation de Lin (CCC) complété par les plots de Bland-Altman est utilisé pour évaluer la concordance entre les méthodes. Résultats : les mesures sont reproductibles dans toutes les méthodes. Avec les méthodes A, le test t apparié a montré des différences statistiquement et cliniquement significatives dépassant les 2 unités pour 5 mesures sur EzOrtho, et 6 mesures sur Webceph. En revanche, avec les méthodes SA, les différences ne sont pas statistiquement significatives pour la plupart des paramètres ou statistiquement significatives, de très faibles étendues mais cliniquement acceptables. Le CCC révèle une concordance passable à excellente entre les méthodes A et M (de 0,67 à 0,92 pour Webceph, et de 0,82 à 0,96 pour EzOrtho), et plutôt très bonne à excellente entre les méthodes SA et la référence M (0,93 à 1 sur Webceph, 0,96 à 1 sur EzOrtho et 0,91 à 1 sur Logos). Les diagrammes de Bland-Altman ont montré que la taille de l'erreur était dans la plage acceptable avec les méthodes SA contrairement aux méthodes A. Le biais systématique et le niveau d'accord étaient meilleurs avec les méthodes SA. Conclusion : la méthode SA est aussi précise et reproductible que la méthode M, contrairement à la méthode A. La reconnaissance automatique des structures (A) qui utilise l'IA reste aujourd'hui un outil prometteur en céphalométrie, qui doit être utilisé avec circonspection. Elle ne peut pas encore remplacer le jugement humain dans le repérage et mesures céphalométriques. Cela reste aujourd'hui une aide efficiente pour le praticien.
APA, Harvard, Vancouver, ISO und andere Zitierweisen

Dissertationen zum Thema "Mesures sur pointes"

1

Bonthonneau, Yannick. „Résonances du laplacien sur les variétés à pointes“. Thesis, Paris 11, 2015. http://www.theses.fr/2015PA112141/document.

Der volle Inhalt der Quelle
Annotation:
Cette thèse à pour objet l’étude des résonances du laplacien sur les variétés à pointes. Ce sont des variétés dont les bouts sont des pointes hyperboliques réelles. Ces objets ont été introduits par Selberg pour les surfaces à pointes de courbure constante dans les années 50. Leur définition a ensuite été étendue en courbure variable par Lax et Phillips. Les résonances sont les poles d’une famille méromorphe de fonctions propres généralisées du laplacien. Elles sont associées au spectre continu du laplacien. Pour analyser ce spectre continu, plusieurs directions de recherche sont explorées ici. D’une part, on obtient des résultats sur la localisation de ces résonances. En particulier, si la courbure est négative, on montre que pour un ensemble générique de métriques, les résonances se séparent en deux ensembles. Le premier est contenu dans une bande près du spectre continu. L’autre partie est composé de résonances qui s’éloignent du spectre. Ceci laisse une zone de taille log sans résonance.D’autre part, on étudie les mesures microlocales associées à certaines suites de paramètre spectraux. En particulier, on montre que pour des suites de paramètres spectraux qui s’approche du spectre, mais pas trop vite, la mesure microlocale associée est nécessairement la mesure de Liouville. Cette propriété est valable quand la courbure de la variété est négative
In this thesis, we study the resonances of the Laplace operator on cusp manifolds. They are manifolds whose ends are real hyperbolic cusps. The resonances were introduced by Selberg in the 50's for the constant curvature cusp surfaces. Their definition was later extended to the case of variable curvature by Lax and Phillips. The resonances are the poles of a meromorphic family of generalized eigenfunctions of the Laplace operator. They are associated to the continuous spectrum of the Laplace operator. To analyze this continuous spectrum, different directions of research are investigated.On the one hand, we obtain results on the localization of resonances. In particular, if the curvature is negative, for a generic set of metrics, they split into two sets. The first one is included in a band near the spectrum. The other is composed of resonances that are far from the spectrum. This leaves a log zone without resonances. On the other hand, we study the microlocal measures associated to certain sequences of spectral parameters. In particular we show that for some sequences of parameters that converge to the spectrum, but not too fast, the associated microlocal measure has to be the Liouville measure. This property holds when the curvature is negative
APA, Harvard, Vancouver, ISO und andere Zitierweisen
2

Le, cigne Anthony. „Étude de l'influence du récepteur LRP-1 sur le potentiel invasif de cellules tumorales : mesures nanomécaniques et d'adhérence par microscopie à force atomique“. Thesis, Reims, 2016. http://www.theses.fr/2016REIMS024/document.

Der volle Inhalt der Quelle
Annotation:
Le récepteur low-density lipoprotein receptor-related protein 1 (LRP-1) est capable d’internaliser des protéases impliquées dans la progression du cancer, et constitue donc une cible thérapeutique prometteuse. Cependant, LRP-1 peut également réguler certaines protéines membranaires. Son ciblage dans une stratégie de modulation de la protéolyse pourrait donc affecter l’adhésion et la dynamique du cytosquelette. Dans ce travail, nous avons étudié l’influence de l’invalidation de LRP-1 sur des paramètres originaux corrélés au potentiel invasif de cellules cancéreuses par microscopie à force atomique (AFM). Cette invalidation induit des changements dans la dynamique d’adhérence des cellules et dans la morphologie, tels qu’un renforcement des fibres de stress et un étalement plus prononcé, causant une augmentation de la surface et de la circularité cellulaires. L’analyse des propriétés mécaniques par AFM a montré que ces différences sont acccompagnées par une augmentation du module d’Young. De plus, les mesures montrent une diminution globale de la motilité cellulaire et une perturbation de la persistance directionnelle. Une augmentation de la force d’adhésion entre cellules invalidées pour LRP-1 et une bille fonctionnalisée à la gélatine a également été observée. Enfin, nos données de spectroscopie de force enregistrées à l’aide d’une pointe fonctionnalisée par un anticorps anti-sous-unité d’intégrine β1 montrent que l’invalidation de LRP-1 modifie la dynamique des intégrines. Dans leur ensemble, nos résultats montrent que des techniques classiquement utilisées dans l’investigation de cellules cancéreuses peuvent être couplées à l’AFM pour ouvrir l’accès à des paramètres complémentaires, pouvant faciliter la discrimination entre différents degrés de potentiel invasif
The low-density lipoprotein receptor-related protein 1 (LRP-1) can internalize proteases involved in cancer progression and is thus considered a promising therapeutic target. However, it has been demonstrated that LRP-1 is also able to regulate membrane-anchored proteins. Thus, strategies that target LRP-1 to modulate proteolysis could also affect adhesion and cytoskeleton dynamics. Here, we investigated the effect of LRP-1 silencing on parameters reflecting cancer cells’ invasiveness by atomic force microscopy (AFM). The results show that LRP-1 silencing induces changes in the cells’ adhesion behavior, particularly the dynamics of cell attachment. Clear alterations in morphology, such as more pronounced stress fibers and increased spreading, leading to increased area and circularity, were also observed. The determination of the cells’ mechanical properties by AFM showed that these differences are correlated with an increase in Young’s modulus. Moreover, the measurements show an overall decrease in cell motility and modifications of directional persistence. An overall increase in the adhesion force between the LRP-1-silenced cells and a gelatin-coated bead was also observed. Ultimately, our AFM-based force spectroscopy data, recorded using an antibody directed against the β1 integrin subunit, provide evidence that LRP-1 silencing modifies integrin dynamics. Together, our results show that techniques traditionally used for the investigation of cancer cells can be coupled with AFM to gain access to complementary phenotypic parameters that can help discriminate between specific phenotypes associated with different degrees of invasiveness
APA, Harvard, Vancouver, ISO und andere Zitierweisen
3

Potéreau, Manuel. „Contribution à la caractérisation de composants sub-terahertz“. Thesis, Bordeaux, 2015. http://www.theses.fr/2015BORD0243/document.

Der volle Inhalt der Quelle
Annotation:
La constante amélioration des technologies silicium permet aux transistors bipolaires à hétérojonction (HBT) SiGeC (Silicium-Germanium : Carbone) de concurrencer les composants III-V pour les applications millimétriques et sous-THz (jusqu’à 300GHz). Le cycle de développement de la technologie (caractérisation-modélisation-conception-fabrication) nécessite plusieurs itérations, entraînant des coûts élevés. De plus, les méthodologies de mesure doivent être réévaluées et ajustées pour adresser des fréquences plus élevées. Afin de réduire le nombre d’itérations et de permettre la montée en fréquence de la mesure, un travail de fond sur la première étape, la caractérisation, s’avère indispensable.Pour répondre à cette exigence, une description et une étude des instruments de mesure (VNA) est réalisée dans un premier temps. Un état de l’art des méthodes de calibrage permet de choisir la solution la plus pertinente pour la calibration sur puce valable dans la gamme de fréquences sous-THz. Ensuite, après avoir relevé plusieurs défauts dans la méthode choisie (à savoir la méthode Thru-Reflect-Line : TRL), des solutions sont proposées concernant la modification des calculs des coefficients d’erreur et également en modifiant les standards utilisés durant le calibrage. Finalement, une étude sur les méthodes d’épluchage est réalisée. Une amélioration est proposée par la modification de deux standards évitant le principal problème de l’état de l’art, la surcompensation des composants parasites
The continuous improvement in Silicon technologies allows SiGeC (Silicon-Germanium-Carbon) heterojunction bipolar transistors (HBT) to compete with III-V components for millimeter wave and sub-THz (below 300GHz) applications. The technology development cycle (characterization, modeling, design and fabrication) needs several iterations resulting in high costs. Furthermore, the measurement methodologies need to be re-assessed and modified to address higher measurement frequencies. In order to reduce the number of iterations and to allow reliable measurement in the sub-THz band, the characterization procedure has been revisited.First, a description and investigation of the measurement instrument (VNA) has been made. After exploring all possible calibration methods, the best candidate for an “on-wafer” calibration for the sub-THz frequency range has been selected. Then, after analyzing the limits of the chosen calibration method (Thru-Reflect-Line: TRL), workarounds are proposed, by modification of the errors coefficients calculation and by changing the standards used during the calibration process. At last, a study concerning the de-embedding methods is carried out. It is shown, that using two new standards helps to reduce the over-compensation of parasitic components
APA, Harvard, Vancouver, ISO und andere Zitierweisen
4

Daffé, Khadim. „Caractérisation hyperfréquence sous pointes de nano-dispositifs : métrologie et instrumentation“. Thesis, Lille 1, 2018. http://www.theses.fr/2018LIL1I080/document.

Der volle Inhalt der Quelle
Annotation:
Dans un contexte de développement spectaculaire des nano-objets, il est nécessaire de développer des moyens de caractérisation électrique haute fréquence sous pointes adaptés aux petites échelles. En particulier, deux verrous instrumentaux doivent être levés. D’une part, la principale difficulté pour caractériser des nano-composants est qu’ils présentent en régime dynamique de fortes valeurs d’impédances comparativement à celles des systèmes de mesure hyperfréquence usuels. D’autre part, Il existe une discontinuité de taille entre les nano-objets et les systèmes de mesure conventionnels. Compte tenu du challenge scientifique et d’un état de l’art relativement limité, plusieurs voies ont été explorées de concert. En premier lieu, dans le cadre d’un projet européen regroupant les acteurs de la métrologie, et du laboratoire commun IEMN-STMicroelectronics®, la traçabilité des mesures hautes impédances de nano-dispositifs est établie. Par ailleurs, il s’agit de développement de nouvelles générations de sondes GSG (Ground-Signal-Ground) en technologie MEMS (Microelectromechanical systems), miniaturisées et adaptées à la taille des nano-dispositifs. Les sondes sont montées sur une plateforme de nano-positionnement robotisée et intégrée dans un microscope électronique à balayage
In the frame of the spectacular development of nano-objects, innovative on-wafer electrical measurement methods must be addressed at the nanoscale. In particular, two main issues have been identified. On one hand, nano-devices exhibit very high dynamic impedance in contrast with conventional measuring microwave instruments. On the other hand, there is an inherent size discontinuity between nano-objects and conventional measurement systems. Given the scientific challenge and a relatively limited state of the art, several avenues of investigation have been explored. First, as part of a European project bringing together metrology laboratories, and the joint laboratory IEMN-STMicroelectronics®, the traceability of nano-devices high impedance measurements is established. In a second step, the development of an electrical on-wafer measuring platform for nano-devices is described. This includes the development of new generations of GSG (Ground-Signal-Ground) miniaturized probes in MEMS (Microelectromechanical systems) technology with reduced access pads. The probes are mounted on a robotic nano-positioning platform integrated in a scanning electron microscope
APA, Harvard, Vancouver, ISO und andere Zitierweisen
5

Beccacece, Lorenzo. „Electromagnetic interaction between multi-walled carbon nanotube bundles“. Electronic Thesis or Diss., Sorbonne université, 2020. http://www.theses.fr/2020SORUS268.

Der volle Inhalt der Quelle
Annotation:
L’utilisation des matériaux 1D et 2D dans les dispositifs électroniques suscite un intérêt dans la communauté scientifique et industriel. Grâce à leurs propriétés uniques, les chercheurs envisagent la miniaturisation de dispositifs électroniques fabriqués. Les nanotubes de carbone font partie des matériaux 1D. Après avoir fait l’état de l’art concernant le matériau et son intégration dans les dispositifs électroniques, on a pu déterminer de nouveaux axes de recherche. Ce travail de thèse porte sur la synthèse, caractérisation, modélisation et intégration des fagots verticaux de nanotubes de carbone multi-parois (VAMWCNTs), dans des dispositifs hyperfréquences. L’objectif a été d’améliorer la compréhension du comportement électrique du matériau dans le domaine hyperfréquence, et d’étudier l’interaction électromagnétique entre deux fagots de VAMWCNTs. Ces objectifs font que ce travail de thèse propose une étude novatrice. Des caractérisations avancées ont été réalisées sur ce matériau, et ceci afin de déterminer leurs caractéristiques. Deux modèles électriques équivalents ont été proposés et implémentés par des simulations numériques afin de calculer leurs impédance électrique complexe. Ces résultats de caractérisation ont été utilisés a posteriori pour valider, et aussi pour améliorer ces modèles. Un procédé de fabrication en salle blanche a été optimisé dans le but de synthétiser les fagots de VAMWCNTs directement sur les pistes métalliques.Un dispositif hyperfréquence a été conçu pour étudier le couplage électromagnétique entre deux fagots verticaux de VAMWCNTs. Les mesures montrent l’existence d’un effet qui peut être attribué aux couplages capacitif et magnétique
The use of 1D and 2D materials in electronic devices is a matter of interest for the scientific and industrial communities. Thanks to their unique properties, the researchers want to reach the device miniaturization. The carbon nanotubes are part of the 1D materials. After the study of the state of the art on this material and on its integration in electronic devices, we defined new research issues on the matter. The work performed in this Ph.D. covered the synthesis, characterization, modeling and integration of vertically aligned multi-walled carbon nanotube (VAMWCNT) bundles, in microwave devices. The goal was to have a better comprehension of the electrical behavior of the synthetized material in the microwave spectrum, and to test the electromagnetic interaction between two large VAMWCNT bundles. This subject has never been previously explored. Advanced characterizations have been achieved on the material, to determine their quality and properties. Two equivalent electrical models, implemented with numerical experiments, were proposed to have the frequency-dependent behavior of the complex electrical impedance. The characterization results were used as feedback to validate and also to improve the models. A clean room fabrication process was optimized, in order to synthetize the VAMWCNT bundles directly on the metallic lines of the devices, and to study the impact of the synthesis. Finally, a microwave device was designed to study the electromagnetic coupling between two large VAMWCNT bundles. The measurements permitted to observe an effect which can be attributed to their capacitive and magnetic coupling
APA, Harvard, Vancouver, ISO und andere Zitierweisen
6

Fournier, Carine. „Points de vue d'élèves en troubles du comportement sur les mesures d'apaisement de deux écoles spécialisées“. Thèse, Université du Québec à Trois-Rivières, 2014. http://depot-e.uqtr.ca/7389/1/030768885.pdf.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
7

Bosché, Aurélien. „Flots géodésiques expansifs sur les variétés compactes sans points conjugués“. Thesis, Université Grenoble Alpes (ComUE), 2015. http://www.theses.fr/2015GREAM085/document.

Der volle Inhalt der Quelle
Annotation:
Cette thèse est composée de deux parties indépendantes.Dans la première partie nous étudions les propriétés dynamiques des flots géodésiques expansifs sur des variétés compactes sans points conjugués à l'aide du travail de R.O.~Ruggiero. Plus précisément nous montrons qu'un tel flot admet une unique mesure d'entropie maximale et nous construisons cette mesure. Cela généralise des résultats connus dans le cas des variétés compactes à courbure négative et de rang un. Nous montrons ensuite à l'aide de cette mesure que l'équivalent de Margulis (connu pour les variétés compactes à courbure strictement négative) concernant le nombre de lacets géodésiques est toujours valable dans ce cas.Dans la seconde partie nous étudions les isométries des cônes symétriques de dimension finie pour la métrique de Thompson et pour la métrique de Hilbert. Plus précisément nous montrons que le groupe d'isométries induit par les automorphismes linéaires de ce cône est un sous-groupe d'indice fini du groupe d'isométries pour chacune de ces deux métriques et donnons des représentant naturels pour le quotient de ces deux groupes. Cela généralise des résultats deL.~Molnár (qui a étudié ces isométries dans le cas des opérateurs symétriques positifs définis sur un espace de Hilbert complexe)
This thesis is divided in two independants parts.In the first part we investigate dynamical properties of expansive geodesic flows on compact manifolds without conjugate points using the work of R.O.~Ruggiero. More precisely we show that such a flow admits a unique measure of maximal entropy and constructthis measure. This extends results known in non-positively curved manifolds of rank one (and our construction is analogous). Wethen show, using this measure of maximal entropy, that the asymptotics of Margulis (known for compact negatively curvedmanifolds) on the number of geodesic loops still hold in this framework.In the second part we study isometries of finite dimensionalsymmetric cones for both the Thompson and the Hilbert metric. More precisely we show that the isometry group induced by the linear automorphisms preserving such a cone is a subgroup of finite indexin the full group of isometries for those two metrics and give a natural set of representatives of the quotient. This extends resultsof L.~Molnar (who studied such isometies for the symmetric irreducible cone of symmetric positive definite operators on acomplex Hilbert space)
APA, Harvard, Vancouver, ISO und andere Zitierweisen
8

Haese, Gwénaëlle. „Mise au point et applications à l’eau potable d’une méthode de mesures sensorielles par indicateurs physiologiques“. Rennes, Ecole nationale supérieure de chimie, 2015. http://www.theses.fr/2015ENCR0026.

Der volle Inhalt der Quelle
Annotation:
Les méthodes classiques d’analyses physico-chimiques et/ou sensorielles montrent leurs limites pour décrire la perception de l’eau potable. En effet, son goût est difficile à verbaliser, du fait du milieu lui-même, supposé sans goût ou avec des goûts dus à de très faibles concentrations en molécules sapides. L’objectif de cette thèse est de développer une méthode innovante et objective de la mesure de la perception. Pour cela, un protocole adapté à la dégustation est construit à partir de mesures physiologiques qui permettent d’accéder aux réactions inconscientes du système nerveux en réponse à des stimuli gustatifs ou olfactifs. Les objectifs de ces travaux étaient de : (1) passer en revue les différentes méthodes de mesures physiologiques ; (2) déterminer les plus pertinentes pour les stimuli étudiés ; (3) établir un lien entre les différentes caractéristiques d’intérêt (intensité, valence hédonique et concentration) ; (4) prédire la perception des goûts et odeurs de l’eau. Dans cette étude, les mesures physiologiques investiguées ont été l’EEG, la fréquence cardiaque, la réponse électrodermale et la microcirculation cutanée. Afin de balayer un large spectre de goûts, les quatre saveurs de base (sucré, salé, acide, amer) ont été utilisées à de faibles concentrations proches des seuils de détection. Les différentes molécules sont diluées dans l’eau d’Evian (eau de référence). Une application au goût de chlore a aussi été développée. Il est montré qu’il est possible de construire des espaces sensoriels individuels de référence basés sur les réactions physiologiques, stables dans le temps et directement en lien avec les caractéristiques sensorielles des stimuli et de leur concentration dans l’eau. Finalement, la méthode de construction d’espaces sensoriels adaptée à la caractérisation des goûts et odeurs de l’eau, permet de construire une espace perceptif caractéristique d’un sujet humain. Le potentiel de prédiction à partir de cette approche a enfin pu être mis en évidence et la pertinence de la méthode pour l’évaluation sensorielle a pu être démontrée
Classical physicochemical and/or sensory methodologies are inadequate to describe the perception of water. Indeed, the taste of water is difficult to describe due to the medium itself which is considered to have no taste or with tastes due to weak concentrations of sapid molecules. The objective of this thesis is to develop an innovative and objective method for measuring perception. In order to achieve this, a protocol adapted to tasting is constructed from physiological measurements that provide access to unconscious reactions from the nervous system in response to gustatory or olfactory stimuli. The objectives of this work were to: (1) review the various methods of physiological measurements; (2) determine the most relevant to the type of stimuli studied; (3) establish a link between the characteristics of interest (intensity, hedonic valence and concentration); (4) predict the perception of tastes and odours of water. In this study, the physiological measures investigated were the EEG, heart rate, electrodermal and skin blood flow responses. In order to evaluate a large spectrum of flavours, the four basic tastes (sweet, salty, acid and bitter) were used at weak concentrations close to the limit of perception, diluted in Evian water (reference water). An application to chlorine tasting has been developed. It showed that it is possible to construct individual sensory spaces of reference based upon the physiological responses, which are stable over time and directly related to the sensory characteristics of the stimuli and to their concentration in water. Finally, the methodology for building sensory spaces adapted to the characterization of the tastes and odours of water enables the construction of a perceptual space typical of a human subject. The prediction potential of this approach has been demonstrated and shows the relevance of the method for sensory evaluation
APA, Harvard, Vancouver, ISO und andere Zitierweisen
9

Baudot, Alice. „Etude et mise au point de méthodes de mesures non destructives permettant de caractériser les paramètres critiques de l'adhésion sur structures collées“. Thesis, Aix-Marseille, 2015. http://www.theses.fr/2015AIXM4300/document.

Der volle Inhalt der Quelle
Annotation:
L’engouement pour le collage structural est important dans l’aéronautique. Actuellement, il n’existe pas de méthode de contrôle non destructive de l’adhésion dans un assemblage collé. Les méthodes de CND usuelles peuvent détecter au mieux des défauts majeurs de type décollement ou absence de colle. L’objectif de la thèse est donc de déterminer un indicateur ultrasonore en lien avec le niveau d’adhésion et la tenue structurale des assemblages collés.La première étape a consisté en l’élaboration d’éprouvettes étalons à adhésions variables de forme cisaillement simple. Trois traitements de surface différents ont été définis afin d’obtenir trois niveaux de force à rupture et donc trois niveaux d’adhésion distincts. Des cartographies détaillées du joint de colle sont obtenues par ultrasons. A l’issue des essais mécaniques les faciès de rupture sont analysés. Des contrôles supplémentaires par micro-tomographie X ont été réalisés. L’ensemble de ces essais ont permis de valider l’obtention d’éprouvettes homogènes et de niveaux d’adhésion maîtrisé. Un système expérimental spécifique a été réalisé pour développer des mesures d’acoustoélasticité qui permettent l’étude des variations locales de champ des contraintes. Pendant une sollicitation mécanique de type cisaillement simple, les variations de temps de vol dans l’aluminium en mode pulse-écho des éprouvettes sont analysées. Le dispositif est d’abord validé sur une éprouvette d’aluminium. Puis, il est démontré que sur une éprouvette de cisaillement simple, les bords d’un défaut, lieu de concentration de contraintes, sont visibles. Les simulations numériques réalisées donnent les mêmes tendances
The enthusiasm for structural bonding is important in aeronautic. Currently there is no method to test non-destructively the adhesion in a bonded assembly. The usual NDT methods can detect the most common defects like delamination or disbond. The aim of this thesis is to determine an ultrasonic indicator related to the level of adhesion and the structural strength of bonded assemblies.The first step was the development of calibrated samples. The specimens are single lap shear joints. Three different surface treatments have been developed to obtain three different levels of ultimate tensile strength and therefore three distinct levels of adhesion. Detailed cartographies of the adhesive joint are obtained by ultrasound. After mechanical testing the fracture surfaces are analyzed. Additional tests by microtomography were performed. They were used to validate the quality of samples. The objective of standards sample is achieved. A specific control system has been achieved to use acoustoelasticty to study the stress field in the bonded assembly. The variations of time of flight in the aluminum part in pulse-echo mode during mechanical test are analysed. First, the method is validated with an aluminum test piece. Then, it is shown, for a sample with defect, the edges of a defect are visible through the increase of stresses on its borders. Numerical simulations give the same trends
APA, Harvard, Vancouver, ISO und andere Zitierweisen
10

Badreddine, Issam. „Mise au point d'un test de toxicité basé sur la mesure de l'activité de la phosphatase alcaline de microphytes“. Chambéry, 1996. http://www.theses.fr/1996CHAMS026.

Der volle Inhalt der Quelle
Annotation:
L’activité de la phosphatase alkaline (apa) de chlorella vulgaris n'est pas perturbée par les pesticides et les molécules phenolees. Par contre, elle semble être très sensible aux métaux lourds. Sa mesure pourrait être utilisée comme un indicateur spécifique de cette dernière famille de toxiques. Néanmoins, il persiste un gros problème, celui de la biodisponibilité des métaux lourds. En effet, en fonction des conditions du milieu (ph, physico-chimie de l'eau,. . . ), les métaux peuvent précipiter ou s'adsorber sur les matières en suspension, ce qui entraine une diminution de leur toxicité. La sensibilité de l’APA aux métaux lourds est supérieure à celle de la mesure de la croissance algale (mesure plus globale). L’APA peut donc être utilisée comme un indicateur précoce de contamination des eaux par les métaux lourds
APA, Harvard, Vancouver, ISO und andere Zitierweisen

Bücher zum Thema "Mesures sur pointes"

1

Benech, Christophe, Nadia Cantin, Marie-Angélique Languille, Arnaud Mazuy, Laurianne Robinet und Antoine Zazzo, Hrsg. Instrumentation portable. Editions des archives contemporaines, 2019. http://dx.doi.org/10.17184/eac.9782813003294.

Der volle Inhalt der Quelle
Annotation:
Bien que certaines approches instrumentales utilisées en archéologie impliquent par essence et depuis de longues années l’utilisation d’instruments de mesure portables, les progrès technologiques ont depuis les années 2000 engendré une véritable explosion du nombre d’instruments permettant des mesures de plus en plus variées avec des dispositifs aux dimensions toujours plus compactes et aux prix les rendant accessibles. Ainsi, l’apparente facilité d’utilisation et la démocratisation d’accès à ces instruments « prêts à l’emploi » ont conduit à leur appropriation par un public qui se diversifie. Le but du présent ouvrage est donc de faire un point, par les spécialistes de ces méthodes, sur l’état de l’art des techniques portables et les perspectives possibles ces prochaines années.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
2

SIMON, Guilhem, Hrsg. Spectroscopies vibrationnelles. Editions des archives contemporaines, 2020. http://dx.doi.org/10.17184/eac.9782813002556.

Der volle Inhalt der Quelle
Annotation:
Les spectroscopies vibrationnelles sont des techniques de caractérisation optique très répandues et utilisées dans de nombreux domaines scientifiques et industriels. Elles bénéficient depuis plusieurs années d’un grand essor, de par les nombreuses innovations technologiques qui les rendent de plus en plus performantes et utilisables sur des nombreux matériaux (cristaux et céramiques, polymères, verres…), molécules (organiques et inorganiques), sous diverses formes (liquide, gaz ou solide), sur des milieux biologiques, naturels, et sur des objets du patrimoine culturel. Les temps de mesures sont désormais compatibles avec des process industriels et les échelles spatiales de mesures tendent vers la résolution nanométrique. Ce livre est un ouvrage collectif et collaboratif entre chercheurs universitaires, CNRS et industriels, utilisateurs de ces techniques et au service de ces spectroscopies. Il s'adresse à un public large et se propose de faire le point à la fois sur la théorie de la spectroscopie vibrationnelle, mais aussi sur la définition, les caractéristiques et la mise en oeuvre de ces diverses techniques à travers des exemples variés d'utilisation.
APA, Harvard, Vancouver, ISO und andere Zitierweisen

Buchteile zum Thema "Mesures sur pointes"

1

PHAM, Minh-Tan, und Grégoire MERCIER. „Détection de changements sur les graphes de séries SAR“. In Détection de changements et analyse des séries temporelles d’images 1, 183–219. ISTE Group, 2022. http://dx.doi.org/10.51926/iste.9056.ch7.

Der volle Inhalt der Quelle
Annotation:
Nous proposons d'exploiter l'interaction entre des points-clés/caractéristiques dans un modèle de graphe pondéré pour développer une nouvelle méthode de suivi de texture afin de traiter la tâche de détection de changements. Dans ce chapitre, nous montrons que les points-clés d'extrema locaux sont susceptibles de capturer les informations radiométriques et contextuelles importantes de l'image. Leur interaction peut être codée par un modèle de graphe basé sur leurs mesures de similarité, qui ne néessitent que des petits patchs de pixels autour des point&-clés. Qui plus est, le graphe construit est capable de caractériser à la fois des informations d'intensité et de géométrie à partir du contenu d'images, donc pertinentes pour le suivi de texture. À cette fin, si un graphe est construit à partir d'une des deux images SAR, le niveau de changement entre celle&-ci peut être mesuré d'après le degré auquel l'information de l'autre image reste conforme à la structure du graphe en question. Cette remarque conduit à notre stratégie proposée de suivi de texture pour la détection de changements.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
2

MENZAN KOUAKOU, Rodolphe, René SAHI SALIA und Georges GAULITHY KONAN. „Contribution des medias sociaux à la prevention et à la lutte contre les violences conjugales. S'informer par les réseaux sociaux en temps de crise en Côte d'Ivoire.“ In Les violences de genre et la pandémie Covid-19, 89–98. Editions des archives contemporaines, 2023. http://dx.doi.org/10.17184/eac.7023.

Der volle Inhalt der Quelle
Annotation:
Le déclenchement de la pandémie de la Covid-19 a amené les gouvernements africains à adopter une série de mesures visant à limiter la propagation du virus. Parmi ces mesures, figure celle du confinement et des restrictions de mouvement des populations qui ont eu, entre autres, pour corollaire la recrudescence des violences conjugales. Face à la recrudescence des violences faites aux femmes, l’État ivoirien à travers ses structures dédiées à la protection de la femme a mis en œuvre un ensemble de stratégies destinées à apporter une réponse efficace et efficiente aux violences basées sur le genre. Parallèlement aux mesures étatiques, se sont déployées sur les médias sociaux, des initiatives de sensibilisation, de dénonciation et prise en charge des VBG. Cette étude se propose d’analyser la contribution des médias sociaux dans la prévention et la lutte contre les VBG en temps de crise sanitaire, comme celle de la Covid-19. Elle se déroule en Côte d’Ivoire et mobilise deux (02) techniques de collectes de données induisant chacune une technique d’analyse. La première technique fait référence à une analyse documentaire basée sur les statistiques et données dans le domaine des violences basées sur le genre durant les années 2018, 2019, 2020 et 2021. La deuxième technique consiste en une veille informationnelle et mobilise un corpus constitué des témoignages et réactions des populations sur les différents médias sociaux face aux cas de violences conjugales, sur les années 2020 – 2021. Les données recueillies sont ainsi analysées sous des aspects mixtes combinant le qualitatif et le quantitatif. Les résultats de cette étude s’articulent autour de trois points clés. Le premier élément est relatif à la situation des violences conjugales avant et durant la période covid-19. Quant au second point majeur, il concerne la présentation du paysage des réseaux sociaux en Côte d’Ivoire. Enfin, le troisième axe des résultats est consacré à la mise en évidence des fonctions et rôles que revêtent les réseaux sociaux face aux violences conjugales en période de crise sanitaire.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
3

THOURET, Jean-Claude, und Sylvain CHARBONNIER. „Évaluation, zonage et modélisation des aléas volcaniques“. In Aléas et surveillance de l’activité volcanique 1, 159–92. ISTE Group, 2022. http://dx.doi.org/10.51926/iste.9043.ch3.

Der volle Inhalt der Quelle
Annotation:
Établir le degré d'exposition des zones soumises aux impacts directs ou indirects de l'activité volcanique est une discipline très spécialisée qui a beaucoup évolué au cours des dernières décennies. Les approches naturalistes ont été enrichies par des données quantitatives dérivées de mesures sur le terrain et de modélisations analogiques et numériques de différents phénomènes. Ce chapitre fait le point sur les principales approches actuelles de l'évaluation des aléas.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
4

GROS, Hippolyte, und Katarina GVOZDIC. „Contexte, effets de contenu et flexibilité“. In La flexibilité cognitive, 209–40. ISTE Group, 2021. http://dx.doi.org/10.51926/iste.9035.ch8.

Der volle Inhalt der Quelle
Annotation:
Dans quelle mesure l’expression de la flexibilité cognitive dépend-elle du contexte dans lequel un raisonnement est produit, du contenu sur lequel elle opère ? Ce chapitre explore les conditions permettant aux individus d’adopter différents points de vue sur une situation, notamment dans la résolution de problèmes, afin d’identifier de nouveaux leviers pédagogiques pour encourager la flexibilité cognitive en contexte scolaire.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
5

„L’utilisation des mesures non tarifaires d’un point de vue économique“. In Rapport sur le Commerce Mondial 2012, 48–93. WTO, 2012. http://dx.doi.org/10.30875/a5cd3b50-fr.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
6

Ravololomanga, Bodo. „De la grossesse à l’accouchement. Hier et aujourd’hui à Madagascar (chez les Tanalas)“. In Naître et grandir. Normes du Sud, du Nord, d’hier et d’aujourd’hui, 69–76. Editions des archives contemporaines, 2020. http://dx.doi.org/10.17184/eac.3160.

Der volle Inhalt der Quelle
Annotation:
Si notre choix se porte sur le groupe tanala (littéralement ceux de la forêt) de Madagascar, c’est que nous avons fait une recherche dans cette région il y a une trentaine d’années (Ravololomanga, 1991, 1992, 1995). Ce qui nous permet également de parler de la situation d’hier et d’aujourd’hui. Il a fallu ainsi réactualiser les données et faire une étude comparative relative sur ce sujet, tant au point de vue anthropologique, médicale qu’obstétricale, dans la mesure du possible. Qu’est-ce qui a changé et qu’est-ce qui est maintenu concernant le sujet ? Y a-t-il une amélioration ou une régression ?
APA, Harvard, Vancouver, ISO und andere Zitierweisen
7

WALLIAN, Nathalie, und Eric JACQUART. „Chevaucher sur le fil du rasoir“. In Les savoirs de l'extrême, 349–402. Editions des archives contemporaines, 2024. http://dx.doi.org/10.17184/eac.8291.

Der volle Inhalt der Quelle
Annotation:
Statistiquement, l'équitation est classée « pratique physique la plus accidentogène » (Mutore et al., 2023), par la gravité tant des traumatismes que des séquelles encourues. Se pose la question des stratégies déployées par le cavalier pour perdurer et produire une performance en situation de concours d'obstacles. Les données croisées sur étude de cas (N = 2 cavaliers expérimentés ; 2 concours de CSO amateur 3 et 2) comportent : 1) l'analyse des discours croisés sur la pratique (cavaliers, moniteur, observateur, propriétaires, chef de piste) ; 2) l'étude des incidents remarquables (IR) survenus durant le concours, la reconnaissance de chaque parcours et 3) l'analyse vidéo de la pratique (auto/hétéroscopie ; par les cavaliers et un expert). Les résultats permettent d'identifier les points d'attention relatifs à a) la gestion du risque et des contraintes de l'épreuve et b) l'optimisation de la performance mais également de c) mesurer les écarts entre intentions de course et réalisation effective, incidents inclus. Des régularités dans les postures et les intentions sont identifiées qui permettent d'ouvrir des pistes pour la réduction des risques liés à la pratique pour l'optimisation de la performance.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
8

SAURAT, D., A. GOLLION-EVRARD, M. BONI und J. U. MULLOT. „Contrôle qualité externe des analyses d’eau sur les bâtiments de la Marine“. In Médecine et Armées Vol. 44 No.4, 317–23. Editions des archives contemporaines, 2016. http://dx.doi.org/10.17184/eac.6821.

Der volle Inhalt der Quelle
Annotation:
Les bâtiments de la Marine nationale disposent de moyens propres de production d’eaux destinées à la consommation humaine à partir de l’eau de mer. En mission, avoir les moyens d’apprécier régulièrement les principales caractéristiques physico-chimiques de l’eau permet de détecter rapidement toute anomalie pouvant remettre en cause la qualité de l’eau produite et prendre les dispositions adéquates. Il est donc essentiel de vérifier la fiabilité du matériel de terrain et l’aptitude des opérateurs à l’utiliser. C’est pourquoi, le laboratoire d’analyses de surveillance et d’expertise de la Marine de Toulon a organisé en 2014 son deuxième essai inter-bâtiments. Les paramètres pH, conductivité, turbidité, chlore (libre et total), cuivre et nickel ont été mesurés à l’aveugle sur trois échantillons différents par les participants. Au final, 90 % des résultats rendus ont été jugés satisfaisants, démontrant la bonne maîtrise de la surveillance de la qualité de l’eau à bord. Néanmoins, cet essai a mis en évidence des variabilités importantes pour certains paramètres dont l’origine peut être double : matérielle et/ou humaine. Une vigilance particulière sera donc observée sur ces points lors des prochains essais.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
9

NJOUONANG DJOMO, Harold Gael. „Faiblesses de la mise en œuvre des mécanismes de gestion de la covid-19 dans le système éducatif au Cameroun“. In Les écoles africaines à l’ère du COVID-19, 155–70. Editions des archives contemporaines, 2024. http://dx.doi.org/10.17184/eac.7926.

Der volle Inhalt der Quelle
Annotation:
Au Cameroun comme de nombreux autres pays du monde où la pandémie du COVID-19~a été enregistrée, les écoles ont été fermées momentanément pour limiter l'expansion de la maladie. Diverses mesures ont été adoptées pour achever l'année académique 2019/2020. Dans ce chapitre, nous examinons les principales faiblesses des mécanismes de gestion du COVID-19~mis en place par le Cameroun dans le domaine éducatif afin d'assurer la continuité des classes. Nous nous appuyons sur la recherche documentaire et les enquêtes de terrain réalisées auprès du personnel enseignant et apprenant dans différentes villes du pays. Il ressort de cette réflexion que l'application des mesures de riposte mis en place par le gouvernement pour assurer la continuité des cours à la suite de la fermeture des établissements pour cause de COVID-19, présente de nombreuses faiblesses. D'un point de vue opérationnel, il a été relevé, en ce qui concerne la diffusion des cours à la télé, un accès inégal des apprenants aux équipements nécessaires pour ces cours à distance, avec une disponibilité irrégulière de l'électricité à l'échelle nationale. L'usage des plateformes en ligne et des réseaux sociaux n'a pas suffisamment été préparé, car non seulement près de 55 % des enseignants ne connaissent pas suffisamment utiliser ces nouveaux canaux (téléphones androïde, réseaux sociaux, etc.) pour dispenser les enseignements, mais aussi l'acquisition de tels équipements n'est pas à la portée de tous les apprenants.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
10

DEGANS, Axelle. „La sécurité économique, une nécessité“. In Les épidémies au prisme des SHS, 191–98. Editions des archives contemporaines, 2022. http://dx.doi.org/10.17184/eac.6005.

Der volle Inhalt der Quelle
Annotation:
La crise sanitaire que le monde traverse depuis 2020 jette une lumière crue sur les choix économiques opérés depuis les années 1980. L’heure des bilans a sonné. Les pays occidentaux prennent la mesure de l’ampleur des conséquences de leur désindustrialisation. Les pays européens ne peuvent demeurer dans leur déni idéologique et doivent se résoudre à envisager que l’interdépendance est aussi une forme de dépendance consentie au sein d’un libre-échange qui comporte une part de risque. Cette communication se propose de souligner la mutation idéologique des décideurs politiques, voire économiques, qui désormais envisagent ce qui était hier impossible : la souveraineté économique et industrielle. L’originalité de cette communication est d’offrir un cadre de compréhension large permettant de rendre intelligibles les mutations en cours. Il faut pour cela envisager les matrices idéologiques particulièrement puissantes en Europe communautaire, les confronter à l’échelle nationale des États membres, tout en ayant le souci de s’interroger sur la distance entre les représentations et la réalité. La variété des situations en Europe est aussi intéressante à interroger, une focale sur la France est un prisme d’analyse particulièrement porteur. Cette communication sera aussi l’occasion de montrer l’ampleur du déni des conséquences de la désindustrialisation, malgré les efforts de personnes comme Claude Revel ou Alain Juillet en France. Le décalage entre les actions de terrain – notamment des acteurs de l’intelligence économique et stratégique - et le discours est aussi une approche fructueuse pour comprendre la situation actuelle. Le passage à une acceptation de la question de la souveraineté permet de saisir l’évolution idéologique. Cette communication se propose aussi d’éclairer la bascule géopolitique entrainée par la désindustrialisation des pays occidentaux, au profit de pays du « Sud », devenus « émergents ». Elle soulignera l’ampleur des transferts financiers et des technologies depuis les pays développés vers ces nouveaux pays industrialisés. Il conviendra aussi de s’interroger sur la récente prise de conscience de l’importance des enjeux géopolitiques qui prennent le pas sur les enjeux géoéconomiques longtemps analysés comme primordiaux, infléchissant ici la lecture offerte par Pascal Lorot. Enfin, cette communication sera l’occasion d’analyser les différentes stratégies économiques et industrielles mises en place à la suite des diagnostics préalablement posés. Comment la sécurité économique se met-elle en place, existe-t-il une coordination entre les échelles communautaire et nationale ? Les intérêts sont-ils convergents entre États-Unis et Union européenne, entre l’Union et ses différents États membres ? La communication sera l’occasion de faire le point sur les actions de relocalisation, de réindustrialisation en s’interrogeant sur ce qui est dans le champ du possible, et ce qui relève de la chimère. En octobre 2021, il sera possible de faire un premier constat des résultats de ce qui aura été entrepris dans les territoires. La sécurité économique est-elle compatible avec la mondialisation libérale ou annonce-t-elle une démondialisation ? Les acteurs économiques que sont les entreprises participent-elles de cette analyse de la nécessité d’une souveraineté économique et industrielle en Europe ? Les intérêts sont-ils convergents entre les États, les collectivités territoriales, les populations et les entreprises à l’échelle de l’Europe et de la France ? Les freins sont nombreux, faut-il encore être en mesure de les identifier et de les comprendre pour permettre le temps de l’action. L’originalité de cette communication est de faire une synthèse entre intelligence économique et géopolitique, de se servir de nombreuses sources, y compris la presse économique.
APA, Harvard, Vancouver, ISO und andere Zitierweisen

Konferenzberichte zum Thema "Mesures sur pointes"

1

De Oliveira, Ana Paula. „Analyse textométrique et lexicométrique de l’eau dans Manon des Sources de Marcel Pagnol“. In XXV Coloquio AFUE. Palabras e imaginarios del agua. Valencia: Universitat Politècnica València, 2016. http://dx.doi.org/10.4995/xxvcoloquioafue.2016.3054.

Der volle Inhalt der Quelle
Annotation:
Lors de cette présentation, nous tenterons de mesurer l’impact des mots découlant du champ lexical de l’eau dans l’ensemble de l’ouvrage de Manon des sources de Marcel Pagnol. Il s’agira d’une étude lexicométrique et textométrique générée par un programme d’analyse linguistique où le lexique et son contexte seront mis en adéquation pour donner lieu à des interprétations précises. Notre intérêt se portera concrètement sur une étude comparative des différentes potentialités de la machine face au raisonnement humain. Nous tâcherons, au cours de cette analyse, de découvrir avec quel niveau de fréquence et jusqu’à quel point notre artifice peut être capable d’analyser correctement et de façon cohérente un extrait de cet ouvrage. Notre objectif final sera celui de constater les différents points de divergences tout comme ceux de convergences afin de démontrer dans quelle mesure notre outil peut être utile et efficace dans le cadre de l’enseignement de la langue et de la littérature française.DOI: http://dx.doi.org/10.4995/XXVColloqueAFUE.2016.3054
APA, Harvard, Vancouver, ISO und andere Zitierweisen
2

Hadj SaÏd, M., L. Thollon, Y. Godio-Raboutet, J. H. Catherine, C. M. Chossegros und D. Tardivo. „Modélisation 3D de l’os maxillaire dans l’analyse par éléments finis en implantologie orale : une nouvelle approche utilisant CBCT et anthropométrie“. In 66ème Congrès de la SFCO. Les Ulis, France: EDP Sciences, 2020. http://dx.doi.org/10.1051/sfco/20206603022.

Der volle Inhalt der Quelle
Annotation:
Objectif : Caractériser l’os maxillaire postérieur chez l’adulte d’un point de vue géométrique pour obtenir des modèles numériques standards par éléments finis. Matériel et méthodes : Les images CBCT maxillaires des patients qui ont visité le service de Chirurgie Orale du CHU de La Timone à Marseille, France ont été recueillies au cours de l’année 2016. Les sujets inclus devaient être âgés de plus de 21 ans et être édentés au moins à partir de la première prémolaire maxillaire. Les patients atteints d’une pathologie osseuse ou d’un traitement influençant le remodelage osseux n’ont pas été inclus. La zone maxillaire postérieure a été définie pour chaque CBCT et 6 mesures de hauteur et de largeur de la crête alvéolaire ont été réalisées à l’aide d’une méthode anthropométrique. Une étude Gauge Anova R&R avec analyse de la répétabilité et de la reproductibilité de la variance des mesures, ainsi qu’une analyse en composantes principales (ACP) pour isoler des modèles standards, ont été menées. Les modèles 3D ont été réalisés à partir d’images au format DICOM. Résultats : Le CBCT de 100 hommes et 100 femmes ont été retenus dans notre étude. 1200 mesures de crête alvéolaire ont été réalisée et les valeurs moyennes de hauteur et de largeur des différentes parties de la zone maxillaire postérieure étaient très disparates. L’analyse statistique de variance a validé la répétabilité et la reproductibilité de notre protocole de mesures. L’ACP n’a pas permis d’identifier les modèles standards et ceux- ci ont été modélisés à partir de notre base de données. Conclusion : Notre travail est le premier à considérer des paramètres anthropométriques sur un large échantillon de sujets dans la méthode des éléments finis. Nous mettons ainsi en évidence la perspective de réaliser des modèles anatomiques complexes et réalistes à partir de l’anatomie humaine pour réaliser des tests biomécaniques en implantologie orale.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
3

Lefort, Claire, Mathieu Chalvidal, Alexis Parenté, Véronique BLANQUET, Henri Massias, Laetitia MAGNOL und Emilie Chouzenoux. „Imagerie 3D par microscopie multiphotonique appliquée aux sciences du vivant : la chaine instrumentale et computationnelle FAMOUS“. In Les journées de l'interdisciplinarité 2022. Limoges: Université de Limoges, 2022. http://dx.doi.org/10.25965/lji.221.

Der volle Inhalt der Quelle
Annotation:
Nous présentons une nouvelle stratégie instrumentale et computationnelle appelée FAMOUS (pour fast algorithm for three-dimensional (3D) multiphoton microscopy of biomedical structures) basée sur une approche de microscopie multiphotonique assistée par calcul. Le but est l’amélioration visuelle des images d'échantillons biologiques épais offrant ainsi un nouveau point de vue sur les structures biologiques. L'approche de post-traitement repose sur un algorithme de restauration d'image régularisé, alimenté par une estimation 3D précise de la fonction d'étalement du point (Point Spread Function en anglais, PSF) de l'instrument sur toute la profondeur des structures. Cette dernière étape revient à mesurer, grâce à un algorithme d'ajustement de modèle avancé, les distorsions variant en profondeur de l'image résultant de la combinaison entre la contribution instrumentale et les hétérogénéités du milieu. Les performances du pipeline FAMOUS sont évaluées pour un milieu hétérogène constitué d’un muscle entier de souris. La génération de seconde harmonique (SHG), émise par l'assemblage des chaines de myosine du muscle est enregistrée. Les artefacts optiques issus de la chaîne d'acquisition incluant des hétérogénéités dans les 3 dimensions sont estimés avec les spécificités propres à l’échantillon puis retirées numériquement. Des images brutes et restaurées sur 5 µm de l’ultrastructure fine du muscle illustrent la robustesse du pipeline FAMOUS.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
4

Pajot, T., S. Ketoff und L. Bénichou. „Chirurgie implantaire guidée : acquisition, planification, modélisation et production d'un guide chirurgical. Mise en place d'une chaine numérique pour la création interne et l'utilisation de guides chirurgicaux“. In 66ème Congrès de la SFCO. Les Ulis, France: EDP Sciences, 2020. http://dx.doi.org/10.1051/sfco/20206602006.

Der volle Inhalt der Quelle
Annotation:
Introduction : Devenue incontournable de nos jours pour la réhabilitation de patients présentant des édentements unitaires, partiels ou totaux, la chirurgie implantaire a connu ces dernières années de nombreuses évolutions. Même si les mesures radiographiques et l'analyse des modèles d'étude physiques sont toujours les ressources les plus utilisées par les praticiens pour recueillir les différentes données nécessaires à la prise en charge du patient, la révolution numérique et l'avènement de l'impression en trois dimensions (3D) ont récemment beaucoup fait évoluer les pratiques et offrent de nouveaux horizons. C'est dans cet esprit qu'une chaine méthodologique complétement numérique a été mise en place pour la création de guides chirurgicaux implantaires à l'aide d'une imprimante 3D. OBSERVATION : L'auteur évoquera les différents éléments utilisés dans le service nécessaires à la mise en place de cette chaine digitale (Cone Beam, caméra d'empreintes optiques intra-orale, logiciel de planification, imprimante 3D) avant de présenter différents cas réalisés à l'aide de celle-ci. DISCUSSION : L'utilisation d'une telle chaine dans un service hospitalier n'est pas simple et son impact difficile à évaluer. L'auteur reviendra donc dans un premier temps sur les différents problèmes rencontrés lors de la création des différents guides chirurgicaux (un point sera notamment fait sur la législation concernant l'utilisation de ces guides imprimés en 3D dans et par un établissement hospitalier). Dans un second temps, on évaluera également l'intérêt de se doter d'une telle chaine numérique : l'intérêt financier (pour l'hôpital mais aussi pour le patient), le temps imparti à la prise en charge du patient (nombre et durée des consultations, temps dédié à la planification implantaire), et l'intérêt chirurgical (notamment l'évaluation de la précision de la thérapeutique implantaire). CONCLUSION : Les nouvelles technologies font évoluer nos pratiques. Si elles nécessitent initialement un investissement financier et humain important (temps d'adaptation, courbe d'apprentissage ), elles permettent à terme et utilisées dans de bonnes indications de faciliter et d'améliorer la prise en charge des patients.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
5

Catros, S. „A quoi servent les Bio-Imprimantes 3D ?“ In 66ème Congrès de la SFCO. Les Ulis, France: EDP Sciences, 2020. http://dx.doi.org/10.1051/sfco/20206601012.

Der volle Inhalt der Quelle
Annotation:
Les imprimantes 3D existent depuis plusieurs décennies et le principe général de la fabrication additive est de déposer des couches successives de matériau afin dobtenir un volume, à partir d’un modèle défini à l’avance grâce à une interface informatique. Depuis quelques années, ces imprimantes sont utilisées dans le domaine médical : ainsi, les chirurgiens peuvent obtenir une réplique en résine d’une situation clinique afin de planifier leur geste chirurgical pour réaliser des interventions moins invasives. Par ailleurs, on peut aujourdhui imprimer certains biomatériaux synthétiques sur mesure afin dobtenir des greffons personnalisés basés sur limagerie tridimensionnelle d’un patient. Ces applications utilisent sur des imprimantes fonctionnant principalement sur le principe de la stéréolithographie (photopolymérisation sélective de résines photosensibles) ou bien du dépôt à chaud de fil fondu : ces technologies ne permettent pas dutiliser des composés biologiques tels que des cellules ou des biomolécules. Plus récemment, des imprimantes 3D dédiées à l’impression déléments biologiques (Bio-Impression) ont été développées. On distingue la Bioimpression assistée par laser, la bioimpression par jet dencre et lextrusion dhydrogels. Ces trois méthodes présentent des points communs (utilisation d’une encre biologique, modélisation du motif à imprimer et pilotage de limprimante par une interface informatique, impression couche par couche). Cependant, en fonction de la technologie utilisée, la résolution et le volume des motifs imprimés peuvent varier de façon importante. Les machines permettant d’imprimer à haute résolution ne sont habituellement pas adaptées lorsquon cherche à obtenir des volumes importants ; de la même façon, lorsqu’une technologie permet d’imprimer des volumes importants, il est souvent difficile dobtenir de hautes résolutions dimpressions. De ce fait, on doit parfois combiner plusieurs technologies pour produire certains assemblages complexes. Ainsi, il est primordial de définir finement ses objectifs avant de choisir une technologie de bioimpression. Les applications des imprimantes 3D de tissus biologiques (Bio-imprimantes) sont toutes dans le champ de lingénierie tissulaire et aujourdhui presque exclusivement dans le domaine de la recherche. Les méthodes permettant d’imprimer à haute résolution trouvent des applications principalement en biologie cellulaire lorsquon cherche par exemple àé valuer les capacités de communication de plusieurs types cellulaires : en effet, il est possible de créer des motifs réguliers en imprimant des gouttes de bioencre contenant chacune quelques cellules avec la technologie laser. Par ailleurs, d’autres technologies basées sur lextrusion permettent de manipuler des amas cellulaires (sphéroïdes) et de les organiser entre eux, ce qui peut trouver des applications dans le domaine de la cancérologie. En combinant les technologies, on peut aujourdhui mettre en place des modèles d’étude pharmacologiques qui pourraient à terme se substituer à certaines expérimentations animales et ouvrir la voie à certaines thérapies ciblées. Enfin, la fabrication dorganes par bioimpression (« Organ Printing ») reste aujourdhui du domaine de la science fiction, même si quelques équipes travaillent sur cet aspect. Les imprimantes 3D biologiques apportent donc de nouveaux outils pour le chercheur dans de nombreuses applications en biologie et en médecine régénératrice. Le choix de la méthode la plus adaptée à L’objectif de L’étude est primordial afin dutiliser au mieux ces technologies.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
6

Felix-Fromentin, Clotilde. „Autour du pyjama de Le Corbusier Le vêtement comme modèle de pensée fondateur“. In LC2015 - Le Corbusier, 50 years later. Valencia: Universitat Politècnica València, 2015. http://dx.doi.org/10.4995/lc2015.2015.845.

Der volle Inhalt der Quelle
Annotation:
Résumé: Je m'intéresse, depuis le territoire du design, à l'intérêt que Le Corbusier porta pour le vêtement moderne, à partir d'une conférence de 1929 où la réforme du vêtement l'emporte à fonder son concept d' « équipement domestique » pour la « machine à habiter ». La richesse du modèle renvoie vers des écrits préalables, notamment sa théorie des "objets-membres artificiels" qui s'est trouvée soutenir une nouvelle définition « prothétique » du design, et par ailleurs des témoignages vécus plus intimes qui amènent un point de vue alternatif et dynamique sur la relation corporelle aux artefacts modernes. Au cœur des débats sur la place et le rôle de la machine industrielle, la position de Le Corbusier révèle sa complexité et sa singularité, qui s'éclaire grâce à des travaux et des concepts propres à l'époque, telle que la Rythmique et la phénoménologie du mouvement, les notions d'œuvre vivante, de sensation et de mesure. Cela emporte à esquisser une conception prothétique corbuséenne, paradoxale, offrant en retour d'enrichir la compréhension de cette idéologie encore très active, et aussi de contribuer à une théorie du vêtement en design, si frêle sur le sujet. Resumen: Me interesa, desde el territorio del diseño, el interés que Le Corbusier trajo a la prenda moderna, desde una conferencia de 1929 en que la reforma de la prenda le lleva a instaurar su concepto de "equipo del hogar" por la "máquina para vivir". La riqueza del modelo se refiere a los escritos anteriores, especialmente su teoría de la "extremidades objetos artificiales”, que se encontró sostener una nueva definición "prótesis" del diseño , y por otro lado, testimonios vividos más íntimos que conducen a un punto de vista alternativo y dinámico sobre relación cuerpo a los artefactos modernos. En el centro del debate sobre el lugar y el papel de la máquina industrial, la posición de Le Corbusier revela su complejidad y singularidad, que se ilumina gracias a las obras y los conceptos específicos de la época, tal como la Rítmica y la fenomenología de movimiento, las nociones de obras vivas, de sensación y de medida. Esto lleva a esbozar un diseño protésico corbuseano, paradójico, permitiendo a cambio enriquecer la comprensión de esta ideología que aun sigue muy activa, y también para contribuir a una teoría de la vestimenta en diseño, tan frágil sobre este tema. Abstract: I focus, from the territory of design, on the interest Le Corbusier brought to the modern garment, from a 1929 conference where the dressreform leads him to develop his concept of "équipement domestique" for the "machine à habiter". Richness of the model refers to prior writings, especially his theory of "objets-membres artificiels", which occured supporting a new "prosthetic" definition of design, and besides that, intimate testimonies that develop an alternative point of view, more dynamic, about body relationship to modern artefacts. At the heart of debates of the time about the place and role of industrial machinery, the position Le Corbusier holds reveals its complexity and uniqueness, which can be clarify through works and concepts specific of that time such as Eurythmics and the phenomenology of movement, notions of living work of art, sensation and measure. This encourages suggest a Corbusean, paradoxical, prosthetic design, allowing in return enrich the understanding of this ideology still very active, and also to contribute to a theory of dress in design, so slight on this subject. Mots-clé: Le Corbusier, design, vêtement, prothétique, Rythmique. Palabras clave: Le Corbusier, diseño, prenda, prótesis, Rítmica. Keywords: Le Corbusier, design, clothing, prosthetic, Eurythmics. DOI: http://dx.doi.org/10.4995/LC2015.2015.845
APA, Harvard, Vancouver, ISO und andere Zitierweisen
7

Sonesson, Göran. „Rhetoric from the standpoint of the Lifeworld“. In Le Groupe μ : quarante ans de rhétorique – trente-trois ans de sémiotique visuelle. Limoges: Université de Limoges, 2010. http://dx.doi.org/10.25965/as.3106.

Der volle Inhalt der Quelle
Annotation:
La rhétorique du point de vue du monde de la vie La rhétorique de l’image dont parlait Barthes, reprise d’une manière beaucoup plus systématique dans les travaux du Groupe µ, n’est qu’une partie de la rhétorique classique, l’elocutio, mais c’est aussi celle qui a dominé dans l’Occident pendant ces derniers 500 ans. À l’extérieur de la sémiotique, cependant, le renouveau de la rhétorique à l’époque contemporaine tend à concevoir cette dernière comme la science qu’étudie la communication. Or, nous savons que la sémiotique a souvent été identifiée comme étant la science de la communication, et un autre candidat à ce titre est sans doute l’herméneutique. Alors que ces trois disciplines ont toutes trait au processus entier, elles le conçoivent dans une perspective chaque fois différente. La rhétorique prend le point de vue du créateur du message : il demande comment il faut s’exprimer pour obtenir l’adhérence de l’autre. L’herméneutique prend le point de vue du récepteur : sa question porte sur les moyens pour comprendre le message de l'autre. La sémiotique prend une position intermédiaire aux deux autres, c’est-à-dire au sein de la phase allant de l’artefact à sa concrétisation : elle demande quelles sont les ressources disponibles pour faire se produire le processus. À une telle rhétorique informée par la sémiotique la contribution du Groupe µ a été de toute première importance. Cependant, l’investigation des ressources disponibles, qui sont différentes dans le cas de l’image que dans celui de la langue, peut recevoir une base plus certaine en partant du monde de la vie, dans le sens de la phénoménologie, qui est aussi celui de l’écologie dans le sens de Gibson et le monde naturel tel que le comprend Greimas. Si l’on veut comprendre la manière dont la divergence est produite dans les images, il faut commencer par considérer ce qui est donné pour acquis, dans le sens à la fois de ce qui est normal, et de ce qui est normatif. Dans le monde de la vie, il y a certaines choses qui ont tendance à se présenter ensemble, en contiguïté ou comme des parties d’un tout (désormais, la factorialité). C’est la dimension indicielle. Mais le sens commun s'attend également à ce que les choses qui apparaissent ensemble soient suffisamment différentes pour pouvoir être distinguées, sans aller à l'extrême opposé de s’exclure mutuellement (une observation qui peut être entendue comme une généralisation de ce que le Groupe µ dit sur la norme de l’image, la homomatérialité et la hétéroformalité). En ce sens, il y a une rhétorique de trop de ressemblance ainsi que de trop de différence. Nous appellerons ceci la dimension iconique. Une troisième rhétorique prend son point de départ dans le caractère de signe de l'image. Nos attentes sont déçues tant en trouvant une trop grande partie de la réalité dans l'image qu’en rencontrant des niveaux supplémentaires de fiction au sein du contenu pictural. On peut appeler ceci la dimension symbolique. Enfin, les images remplissent des fonctions différentes dans une société donnée et sont, en raison de ce fait, imputables à diverses catégories, donnant ainsi lieu à une quatrième rhétorique dans laquelle nos attentes, en ce qui concerne les catégories sociales auxquelles les images sont assignées, ne sont pas remplies. On peut parler ici d’une dimension de catégorisation socioculturelle. Avant d’aborder les figures rhétoriques, ou ce qui en tient lieu, il est cependant nécessaire de discuter dans quelle mesure les ressources des images comprennent une part de dispositio, dans d’autres termes, une structure argumentative. Si nous définissons une affirmation comme étant une construction verbale, alors il est trivialement vrai que les images ne peuvent rien affirmer. Toutefois, si nous définissons une affirmation plus simplement comme une opération, au moyen de laquelle une propriété particulière est assignée à une entité particulière, alors il est possible pour l'image de faire des affirmations à la façon des images. Or, même ceci peut sembler impossible, s’il est vrai que les images, comme on l’a souvent dit, ne font que reproduire le monde de notre expérience. Au contraire, il faut admettre que les images peuvent se servir des arguments qui, dans le sens de Perelman, s’appuient sur la structure de la réalité ou servent à changer cette structure-là. Il s’ensuit que les transformations homogènes, contrairement à ce que suggère le Groupe µ, font aussi partie de la rhétorique, mais de la rhétorique de la dispositio. Considérée comme l’une des transformations possibles à partir du monde de la vie, la première dimension de la rhétorique correspond plus directement à la rhétorique telle qu’elle a été conçue par le Groupe µ, mais en retournant aux fondements jetés par la sémiotique phénoménologique proposée dans Pictorial concepts (1989). Contrairement au Groupe µ, nous proposons de distinguer les transformations portant sur la factorialité (la relation des parties au tout) et celles concernant la contiguïté. C’est « l’objet indépendant », dans le sens de James Gibson, qui fait la différence entre la contiguïté et la factorialité : il s’agit d’un degré d’intégration plus ou moins poussée. En fait, il y a sans doute des cas intermédiaires entre l’objet indépendant avec ses parties et la constellation arbitraire, mais ces cas-là sont aussi qualitativement vécus : le jeu, la série, l’ensemble. La rhétorique, de ce point de vue, relève de la méréologie, la science des parties et du tout, formalisée par Lesniewski en tirant son inspiration de Husserl et de Twardowski. Notre deuxième observation concerne la nature de l’opération nous faisant passer du monde de la vie à l’image. Dans la majorité de cas, l’opération rhétorique, pour fonctionner, à besoin non pas d’une absence de ce qui est attendu ou de la présence de quelque chose qui n’est pas attendu, mais des deux à la fois. Rares sont les cas (surtout s’agissant de la contiguïté) où une simple absence peut créer un effet de rhétorique. Dans les termes de la rhétorique générale d’abord conçue par le Groupe µ, la substitution est une opération rhétorique plus sûre que l’addition ou la suppression. D’autre part, dans le cas de la factorialité, l’effet est tellement différent selon les relations entre le tout et les parties qu’il faut spécifier la nature du rapport de la partie au tout. Il faut surtout distinguer le cas où quelque chose est ajouté à un tout qui est déjà en soi un objet indépendant, et le cas où les parties font partie d’un autre objet indépendant que le tout qui est perçu. Nos attentes peuvent être déçues par d’autres opérations que l’absence ou la présence d’un élément. Il peut y avoir une contradiction entre l’élément attendu et l’élément réellement présent. C’est la dimension iconique de la rhétorique. Les images, il est vrai, ne peuvent pas présenter des contradictions proprement dites, mais elles peuvent comporter toute sorte de manifestations d’une ressemblance ou d’une différence plus grande que ce que l’on a anticipé. Cet effet est présent dans plusieurs exemples considérés par le Groupe µ, sans que la spécificité de l’opération soit prise en compte. S’agissant d’un signe, en l’occurrence d’une image, il y a toujours un risque de confusion entre le signe et ce qui est signifié, et il est possible d’en tirer une rhétorique. À un extrême, le signe peut incorporer des objets réels ; à l’autre extrême, il peut contenir d’autres signes, notamment d’autres images, comme c’est le cas avec les images représentant d’autres images. Il s’agit donc de la dimension symbolique de la rhétorique. Finalement, la catégorisation des signes, dans ce cas les images, peut donner lieu à une rhétorique plus clairement socioculturelle. Les images peuvent être catégorisées en tenant compte de leur manière de construction, de la fonction qu’elles sont censées remplir dans la société, ou de leur manière de circuler à l’intérieur de la société. Les attentes qui peuvent être déçues dans ces cas ne concernent pas seulement l’appartenance de certaines images à des catégories particulières, mais surtout la combinaison de certaines catégories de construction avec certaines catégories de fonction et certaines catégories de circulation. Toute l’aventure du modernisme dans l’art plastique peut être conçue comme un vaste geste rhétorique à partir de la notion d’art à la fin du 18e siècle : une peinture à l’huile (construction) circulant dans des salons, des galeries et des musées (circulation) ayant pour but de produire un effet de plaisir esthétique (fonction). Dans le présent texte, j'ai suggéré que, contrairement aux signes verbaux, les images sont immédiatement rhétoriques, parce qu'elles nous offrent en même temps leur similitude et leur différence par rapport au monde de la perception. Par conséquent, j'ai fait observer que la rhétorique des images doit être fondée sur les structures de perception telles qu’elles apparaissent au sens commun, surdéterminées par le monde de la vie socioculturel spécifique. La dimension primaire de la rhétorique de l’image, l’indexicalité, dérive sa signification d'un écart par rapport à l'intégration relative des voisinages, des objets indépendants et des totalités de niveaux supérieurs. Elle peut concerner la contiguïté ou la factorialité, mais elle suppose d'habitude à la fois la présence de quelque chose d’inattendu et l'absence de quelque chose de prévu. L’iconicité, qui détermine la deuxième dimension, est fondée sur l'expectative d'une différenciation relative des objets du monde, qui ne suppose pas trop de similitude, ni trop de dissimilitude. La troisième dimension dépend du caractère fictif de l’image comme signe, dont les niveaux peuvent être confondus soit par une expérience trop directe, soit par des degrés de fiction trop nombreux. Finalement, la quatrième dimension concerne l'image en tant qu’objet social, faisant partie de certaines catégories de construction, de circulation, et de fonction. L'avantage de cette conception, par rapport au modèle de Groupe µ auquel il est endetté, consiste en son attention plus proche aux structures de la perception du sens commun.
APA, Harvard, Vancouver, ISO und andere Zitierweisen

Berichte der Organisationen zum Thema "Mesures sur pointes"

1

Gruson-Daniel, Célya, und Maya Anderson-González. Étude exploratoire sur la « recherche sur la recherche » : acteurs et approches. Ministère de l'enseignement supérieur et de la recherche, November 2021. http://dx.doi.org/10.52949/24.

Der volle Inhalt der Quelle
Annotation:
• Introduction Dans le cadre du deuxième Plan National de la Science Ouverte, le Comité pour la science ouverte a souhaité mener une étude pour la préfiguration d’un Lab de la science ouverte (LabSO) afin de mieux comprendre le périmètre de la recherche sur la recherche (research on research) dans un contexte international. • Objectifs de l’étude : L’étude répond ainsi à trois objectifs : 1. repérer des grands courants de recherche sur la recherche (RoR) dans le paysage plus général de la recherche universitaire en Europe et outre-atlantique, en reconnaître les principaux acteurs institutionnels et différencier les approches mobilisées par les uns et les autres ; 2. proposer une méthodologie d’analyse dans une démarche de science ouverte (méthodes mixtes et cartographie numérique) pour faciliter l’appropriation de son contenu ; 3. émettre des recommandations pour faciliter le positionnement du LabSO et s’inspirer d’initiatives existantes. • Méthodologie Une série de treize entretiens et une collecte de données d’une sélection thématique de sites web ont permis de dresser un paysage d’acteurs et d’approches impliqués dans des recherches sur la recherche. Ce dernier s’est nourri d’une démarche de cartographie numérique pour repérer et visualiser les liens existants entre différentes communautés, mouvements, réseaux et initiatives (financeurs, projets, centres de recherche, fournisseurs de données, éditeurs, etc.). • Résultats Le rapport présente différents courants de « recherche sur la recherche » issus des traditions théoriques et méthodologiques de la sociologie, de l’économie, des sciences politiques, de la philosophie, des sciences de l’information et des mesures (biblio/scientométrie). Des courants plus récents sont aussi décrits. Ils s’inscrivent dans un contexte de politiques publiques favorables à la science ouverte et ont émergé dans le champ des sciences sociales computationnelles, des Big Data ou encore des domaines biomédicaux. Si certaines de ces approches s’appuient sur des courants académiques (STS, sciences des mesures) établis depuis de nombreuses décennies, d’autres comme ceux de la « métascience » ou de la « science de la science », se sont structurées plus récemment avec une visée prescriptive et de changement fondé sur des preuves (evidence-based) se basant sur un engagement normatif pour une science plus ouverte, inclusive et diverse. Bien loin d’un paysage statique, l’étude fait ressortir des recherches en mouvement, des débats tout autant que des mises en garde afin que certains courants « ne réinventent pas la roue » en faisant fit d’une longue tradition académique de l’étude des sciences et de la production scientifiques. De nouvelles alliances entre centres de recherche et laboratoires, institutions subventionnaires, décideurs politiques et fournisseurs de données ont été repérées. Elles participent à une dynamique actuelle d’équipement des politiques publiques par des outils d’évaluation et des protocoles de recherche pour guider les actions menées, on parle d’évidence-based policies. Un des exemples les plus récents étant laa seconde feuille de route du RoRI1 poussant notamment à la formation d’un réseau international d’instituts de recherche sur la recherche, fondé sur le partage et la mutualisation de données, de méthodes et d’outils. Outre la présentation de ces différents acteurs et courants, le rapport pointe le rôle joué par les infrastructures et les fournisseurs de données scientifiques (publications, données, métadonnées, citations, etc.) dans la structuration de ce paysage et les équilibres à trouver. • Recommandations 1. Accompagner la construction d’indicateurs et de métriques par le biais d’un regard critique et de discussions collectives pour mesurer leurs impacts sur les comportements des professionnels de la recherche (mésusages, gaming). 2. Porter attention aux étapes de diffusion des résultats scientifiques issus des « recherches sur la recherche » pour les adapter aux différents publics ciblés (chercheurs, responsables des politiques publiques de recherche, journalistes, etc.). 3. Articuler les travaux de « recherche sur la recherche » avec une démarche de science ouverte en questionnant notamment les choix faits concernant les fournisseurs de données, les infrastructures et outils d’évaluation, de découvrabilité et d’analyse de la production scientifique (gouvernance, utilisation des données, etc.). 4. Soutenir les approches thématiques et transversales plutôt que disciplinaire de manière collaborative entre les différents membres du Lab de la science ouverte et aider le dialogue entre les différentes approches et mouvements (STS, research on research, science of science, scientométrie, etc.)
APA, Harvard, Vancouver, ISO und andere Zitierweisen
2

Martinais, Emmanuel. L’élaboration du PPRT de la vallée de la chimie lyonnaise: La prévention des risques industriels comme moteur du développement économique. Fondation pour une culture de sécurité industrielle, Oktober 2016. http://dx.doi.org/10.57071/nbm663.

Der volle Inhalt der Quelle
Annotation:
Ce cahier documente l’élaboration du plan de prévention des risques technologiques (PPRT) de la vallée de la chimie lyonnaise, depuis sa mise en chantier en 2005 jusqu’à sa mise à l’enquête publique en avril 2016. Il s’intéresse plus particulièrement au travail concret des acteurs locaux qui ont participé à ce processus au long cours, aux structures d’échange qu’ils ont créées pour produire les informations dont ils ont eu besoin et débattre du contenu des mesures à définir, aux arguments qu’ils ont élaborés afin de faire valoir leurs points de vue, défendre leurs intérêts et peser sur les décisions qui scandent les différentes étapes de cette procédure. Cette immersion au cœur de la «fabrique» du PPRT est notamment l’occasion de découvrir que si la prévention des risques industriels est souvent dans un rapport antagonique avec le développement économique, elle agit ici comme le moteur d’un important projet de redynamisation de la plateforme industrielle du sud de Lyon en même temps que la condition du maintien de l’industrie lourde sur ce site très urbanisé.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
3

Dudoit, Alain. L’urgence du premier lien : la chaîne d’approvisionnement du Canada au point de rupture, un enjeu de sécurité nationale. CIRANO, Juni 2023. http://dx.doi.org/10.54932/zjzp6639.

Der volle Inhalt der Quelle
Annotation:
La création d’une chaîne d'approvisionnement intelligente est désormais une priorité de sécurité nationale urgente qui ne peut être réalisée sans la mobilisation conjointe différentes parties prenantes au Canada. Elle n’est cependant pas une finalité en soi : la réalisation d’un marché intérieur unique, compétitif, durable et axé sur les consommateurs devrait être le résultat ultime du chantier national nécessaire à la mise en œuvre collaborative des recommandations de trois rapports complémentaires de politiques publiques publiés en 2022 sur l’état de la chaine d’approvisionnement au Canada. Le défi de la chaîne d'approvisionnement est vaste, et il ne fera que se compliquer au fil du temps. Les gouvernements au Canada doivent agir ensemble dès maintenant, en conjonction avec les efforts de collaboration avec nos alliés et partenaires notamment les États-Unis et l’Union Européenne pour assurer la résilience les chaînes d'approvisionnement face à l’accélération des bouleversements, conflits géopolitiques, catastrophes naturelles actuels et anticipés. La position géostratégique du Québec représente un atout majeur et l’investit d’un rôle et d’une responsabilité critiques dans la mise en œuvre non seulement du Rapport final du groupe de travail national sur la chaine d’approvisionnement (« ACT »), mais aussi des recommandations contenues dans le rapport publié par le Conseil des ministres responsables des transports et de la sécurité routière (COMT) et celles contenues dans le rapport du Comité permanent de la Chambre des communes sur les transports, l'infrastructure et les collectivités publié à Ottawa en novembre 2022 , « Améliorer l’efficacité et la résilience des chaînes d’approvisionnement du Canada ». La démarche mobilisatrice vers un espace commun des données pour la chaine d’approvisionnement du Canada s’inspire de la vision à terme du corridor économique intelligent d’Avantage Saint-Laurent et repose sur l'expérience acquise grâce à différentes initiatives et programmes mis en œuvre au Canada, aux États-Unis et en Europe, et les intègre tel qu’approprié. Sa mise en œuvre dans une première étape dans le corridor commercial du Saint-Laurent Grands Lacs facilitera l’accès et le partage par la suite des données de l’ensemble de la chaine d’approvisionnement au Canada de manière fiable et sécurisée. Le développement conjoint accéléré d’un espace commun de données changera la donne non seulement dans la résolution des défis critiques de la chaine d’approvisionnement mais aussi dans l’impulsion qu’il générera dans la poursuite de priorités fondamentales au Canada dont celle de la transition énergétique. Ce rapport Bourgogne propose une synthèse en quatre volets : 1. Un survol d’un arrière-plan caractérisé par de nombreuses consultations, annonces de stratégies, mesures et des résultats mitigés. 2. Une analyse croisée des recommandations de trois rapports importants et complémentaires de politiques publiques au niveau fédéral ainsi que de la stratégie québécoise, l’Avantage Saint-Laurent. 3. Une analyse des enjeux fondamentaux de capacité de mobilisation, d’exécution et de sous-utilisation des données. 4. Quelques pistes de solutions opérationnelles pour passer au mode « Action -Collaboration et Transformation (ACT)
APA, Harvard, Vancouver, ISO und andere Zitierweisen
4

Dufour, Quentin, David Pontille und Didier Torny. Contracter à l’heure de la publication en accès ouvert. Une analyse systématique des accords transformants. Ministère de l'enseignement supérieur et de la recherche, April 2021. http://dx.doi.org/10.52949/2.

Der volle Inhalt der Quelle
Annotation:
Cette étude porte sur une des innovations contemporaines liées à l’économie de la publication scientifique : les accords dits transformants, un objet relativement circonscrit au sein des relations entre consortiums de bibliothèques et éditeurs scientifiques, et temporellement situé entre 2015 et 2020. Ce type d’accords a pour objectif affiché d’organiser la transition du modèle traditionnel de l’abonnement à des revues (souvent proposées par regroupements thématiques ou collections) vers celui de l’accès ouvert en opérant une réaffectation des budgets qui y sont consacrés. Notre travail d’analyse sociologique constitue une première étude systématique de cet objet, fondée sur la recension de 197 accords. Le corpus ainsi constitué inclut des accords caractérisés par la coprésence d’une composante d’abonnement et d’une composante de publication en accès ouvert, même minimale (« jetons » de publication offerts, réduction sur les APC...). En conséquence, ont été exclus de l’analyse les accords portant uniquement sur du financement centralisé de publication en accès ouvert, que ce soit avec des éditeurs ne proposant que des revues avec paiement par l’auteur (PLOS, Frontiers, MDPI...) ou des éditeurs dont une partie du catalogue est constitué de revues en accès ouvert. L’accord le plus ancien de notre corpus a été signé en 2010, les plus récents en 2020 – les accords ne commençant qu’en 2021, même annoncés au cours de l’étude, n’ont pas été retenus. Plusieurs résultats se dégagent de notre analyse. Tout d’abord, on note une grande diversité des acteurs impliqués avec 22 pays et 39 éditeurs, même si certains consortiums (Pays-Bas, Suède, Autriche, Allemagne) et éditeurs (CUP, Elsevier, RSC, Springer) en ont signé beaucoup plus que d’autres. Ensuite, la durée des accords, comprise entre une et six années, révèle une distribution très inégalitaire, avec plus de la moitié des accords (103) signés pour 3 ans, ainsi qu’une faible proportion pour 4 ans ou plus (22 accords). Enfin, en dépit d’appels répétés à la transparence, moins de la moitié des accords (96) ont un texte accessible au moment de cette étude, sans qu’on puisse observer une tendance récente à une plus grande disponibilité. L’analyse montre également des degrés d’ouverture très variables, allant d’une simple information sur le répertoire ESAC en passant par la mise à disposition d’un format annotable jusqu’à l’attribution d’un DOI et d’une licence de réutilisation (CC-BY), en incluant le détail des sommes monétaires. Parmi les 96 accords disponibles, dont 47 signés en 2020, 62 ont fait l’objet d’une analyse en profondeur. C’est à notre connaissance la première analyse à cette échelle, sur un type de matériel non seulement inédit, mais qui était auparavant soumis à des clauses de confidentialité. Fondée sur une lecture minutieuse, l’étude décrit de manière fine leurs propriétés, depuis la matérialité du document jusqu’aux formules financières, en passant par leur morphologie et l’ensemble des droits et devoirs des parties. Les contenus des accords sont donc analysés comme une collection dont nous cherchons à déterminer les points communs et les variations, à travers des codages explicites sur certaines de leurs caractéristiques. L’étude pointe également des incertitudes, et notamment leur caractère « transitionnel », qui demeure fortement discuté. D’un point de vue morphologique, les accords montrent une grande diversité en matière de taille (de 7 à 488 pages) et de structure. Néanmoins, par définition, ils articulent tous deux objets essentiels : d’une part, les conditions de réalisation d’une lecture d’articles de revues, sous forme d’abonnement, mêlant des préoccupations d’accès et de sécurité ; d’autre part, les modalités de publication en accès ouvert, articulant la gestion d’un nouveau type de workflow à toute une série d’options possibles. Parmi ces options, mentionnons notamment le périmètre des revues considérées (hybrides et/ou accès ouvert), les licences disponibles, le degré d’obligation de cette publication, les auteurs éligibles ou le volume d’articles publiables. L’un des résultats les plus importants de cette analyse approfondie est la mise au jour d’un découplage presque complet, au sein même des accords, entre l’objet abonnement et l’objet publication. Bien entendu, l’abonnement est systématiquement configuré dans un monde fermé, soumis à paiement qui déclenche des séries d’identification des circulations légitimes tant du contenu informationnel que des usagers. Il insiste notamment sur les interdictions de réutilisation ou même de copie des articles scientifiques. À l’opposé, la publication en accès ouvert est attachée à un monde régi par l’accès gratuit au contenu, ce qui induit des préoccupations de gestion du workflow et des modalités d’accessibilité. De plus, les différents éléments constitutifs de ces objets contractuels ne sont pas couplés : d’un côté, les lecteurs sont constitués de l’ensemble des membres des institutions abonnées, de l’autre, seuls les auteurs correspondants (« corresponding authors ») sont concernés ; les listes de revues accessibles à la lecture et celles réservées à la publication en accès ouvert sont le plus souvent distinctes ; les workflows ont des objectifs et des organisations matérielles totalement différentes, etc. L’articulation entre les deux objets contractuels relève uniquement d’une formule de distribution financière qui, outre des combinaisons particulières entre l’un et l’autre, permet d’attribuer des étiquettes distinctes aux accords (offset agreement, publish & read, read & publish, read & free articles, read & discount). Au-delà de cette distribution, l’étude des arrangements financiers montre une gamme de dispositions allant d’une prévisibilité budgétaire totale, donc identique aux accords d’abonnement antérieurs, à une incertitude sur le volume de publication ou sur le montant définitif des sommes échangées. Les modalités concrètes de calcul des montants associés à la publication en accès ouvert sont relativement variées. S’il existe effectivement des formules récurrentes (volume d’articles multiplié par un prix individuel, reprise de la moyenne des sommes totales d’APC des années précédentes...), le calcul des sommes en jeu est toujours le résultat d’une négociation singulière entre un consortium et un éditeur scientifique, et aboutit parfois à des formules originales et complexes. À ce titre, l’espace des possibles en matière de formules financières n’est jamais totalement clos. Par ailleurs, la volonté des consortiums d’opérer une « transformation » de leurs accords vers la publication à coût constant renvoie à des définitions diversifiées du « coût » (inclusion ou non des dépenses d’APC préexistantes) et de la constance (admission ou pas d’une « inflation » à 2 ou 3%). De plus, nous n’avons observé aucune disposition contractuelle permettant d’anticiper les sommes en jeu au-delà de l’horizon temporel de l’accord courant. La grande diversité des accords provient d’une part des conditions initiales des relations entre consortiums et éditeurs scientifiques – les sommes dépensées en abonnement étant le point de départ des nouveaux accords –, d’autre part des objectifs de chaque partie. Même si cette étude excluait volontairement les négociations, les accords portent des traces de ces objectifs. Ainsi, de nombreux accords sont de nature explicitement expérimentale, quand certains visent un contrôle budgétaire strict, ou d’autres ambitionnent, dans la période plus récente, la publication du plus grand nombre possible d’articles en accès ouvert. C’est dans ce dernier cas qu’on touche à l’ambiguïté des attentes générales sur les accords transformants. En effet, pour les consortiums, la dimension « transformante » consiste essentiellement à transférer les sommes traditionnellement allouées à l’abonnement vers la publication en accès ouvert. Mais l’objectif n’est jamais de transformer le modèle économique des revues, c'est-à-dire de faire basculer des revues sous abonnement ou hybrides en revues entièrement en accès ouvert. D’ailleurs, aucune clause ne vise une telle fin – à l’exception du modèle d’accord proposé par l’éditeur ACM. Du côté des éditeurs, et notamment de Springer, le caractère cumulatif des accords nationaux passés vise à projeter un monde de la publication où l’accès ouvert devient de fait quantitativement très dominant, sans pour autant modifier de manière pérenne le modèle économique de leurs revues. Notre étude montre que les accords transformants actuels ne permettent pas d’assurer de manière durable une transition de l’économie de la publication vers l’accès ouvert, dans la mesure où ils n’offrent pas de garantie sur le contrôle des dépenses ni sur la pérennité de l’ouverture des contenus. L’avenir des relations entre consortium et éditeur demeure largement indéterminé.Cette étude porte sur une des innovations contemporaines liées à l’économie de la publication scientifique : les accords dits transformants, un objet relativement circonscrit au sein des relations entre consortiums de bibliothèques et éditeurs scientifiques, et temporellement situé entre 2015 et 2020. Ce type d’accords a pour objectif affiché d’organiser la transition du modèle traditionnel de l’abonnement à des revues (souvent proposées par regroupements thématiques ou collections) vers celui de l’accès ouvert en opérant une réaffectation des budgets qui y sont consacrés. Notre travail d’analyse sociologique constitue une première étude systématique de cet objet, fondée sur la recension de 197 accords. Le corpus ainsi constitué inclut des accords caractérisés par la coprésence d’une composante d’abonnement et d’une composante de publication en accès ouvert, même minimale (« jetons » de publication offerts, réduction sur les APC...). En conséquence, ont été exclus de l’analyse les accords portant uniquement sur du financement centralisé de publication en accès ouvert, que ce soit avec des éditeurs ne proposant que des revues avec paiement par l’auteur (PLOS, Frontiers, MDPI...) ou des éditeurs dont une partie du catalogue est constitué de revues en accès ouvert. L’accord le plus ancien de notre corpus a été signé en 2010, les plus récents en 2020 – les accords ne commençant qu’en 2021, même annoncés au cours de l’étude, n’ont pas été retenus. Plusieurs résultats se dégagent de notre analyse. Tout d’abord, on note une grande diversité des acteurs impliqués avec 22 pays et 39 éditeurs, même si certains consortiums (Pays-Bas, Suède, Autriche, Allemagne) et éditeurs (CUP, Elsevier, RSC, Springer) en ont signé beaucoup plus que d’autres. Ensuite, la durée des accords, comprise entre une et six années, révèle une distribution très inégalitaire, avec plus de la moitié des accords (103) signés pour 3 ans, ainsi qu’une faible proportion pour 4 ans ou plus (22 accords). Enfin, en dépit d’appels répétés à la transparence, moins de la moitié des accords (96) ont un texte accessible au moment de cette étude, sans qu’on puisse observer une tendance récente à une plus grande disponibilité. L’analyse montre également des degrés d’ouverture très variables, allant d’une simple information sur le répertoire ESAC en passant par la mise à disposition d’un format annotable jusqu’à l’attribution d’un DOI et d’une licence de réutilisation (CC-BY), en incluant le détail des sommes monétaires. Parmi les 96 accords disponibles, dont 47 signés en 2020, 62 ont fait l’objet d’une analyse en profondeur. C’est à notre connaissance la première analyse à cette échelle, sur un type de matériel non seulement inédit, mais qui était auparavant soumis à des clauses de confidentialité. Fondée sur une lecture minutieuse, l’étude décrit de manière fine leurs propriétés, depuis la matérialité du document jusqu’aux formules financières, en passant par leur morphologie et l’ensemble des droits et devoirs des parties. Les contenus des accords sont donc analysés comme une collection dont nous cherchons à déterminer les points communs et les variations, à travers des codages explicites sur certaines de leurs caractéristiques. L’étude pointe également des incertitudes, et notamment leur caractère « transitionnel », qui demeure fortement discuté. D’un point de vue morphologique, les accords montrent une grande diversité en matière de taille (de 7 à 488 pages) et de structure. Néanmoins, par définition, ils articulent tous deux objets essentiels : d’une part, les conditions de réalisation d’une lecture d’articles de revues, sous forme d’abonnement, mêlant des préoccupations d’accès et de sécurité ; d’autre part, les modalités de publication en accès ouvert, articulant la gestion d’un nouveau type de workflow à toute une série d’options possibles. Parmi ces options, mentionnons notamment le périmètre des revues considérées (hybrides et/ou accès ouvert), les licences disponibles, le degré d’obligation de cette publication, les auteurs éligibles ou le volume d’articles publiables. L’un des résultats les plus importants de cette analyse approfondie est la mise au jour d’un découplage presque complet, au sein même des accords, entre l’objet abonnement et l’objet publication. Bien entendu, l’abonnement est systématiquement configuré dans un monde fermé, soumis à paiement qui déclenche des séries d’identification des circulations légitimes tant du contenu informationnel que des usagers. Il insiste notamment sur les interdictions de réutilisation ou même de copie des articles scientifiques. À l’opposé, la publication en accès ouvert est attachée à un monde régi par l’accès gratuit au contenu, ce qui induit des préoccupations de gestion du workflow et des modalités d’accessibilité. De plus, les différents éléments constitutifs de ces objets contractuels ne sont pas couplés : d’un côté, les lecteurs sont constitués de l’ensemble des membres des institutions abonnées, de l’autre, seuls les auteurs correspondants (« corresponding authors ») sont concernés ; les listes de revues accessibles à la lecture et celles réservées à la publication en accès ouvert sont le plus souvent distinctes ; les workflows ont des objectifs et des organisations matérielles totalement différentes, etc. L’articulation entre les deux objets contractuels relève uniquement d’une formule de distribution financière qui, outre des combinaisons particulières entre l’un et l’autre, permet d’attribuer des étiquettes distinctes aux accords (offset agreement, publish & read, read & publish, read & free articles, read & discount). Au-delà de cette distribution, l’étude des arrangements financiers montre une gamme de dispositions allant d’une prévisibilité budgétaire totale, donc identique aux accords d’abonnement antérieurs, à une incertitude sur le volume de publication ou sur le montant définitif des sommes échangées. Les modalités concrètes de calcul des montants associés à la publication en accès ouvert sont relativement variées. S’il existe effectivement des formules récurrentes (volume d’articles multiplié par un prix individuel, reprise de la moyenne des sommes totales d’APC des années précédentes...), le calcul des sommes en jeu est toujours le résultat d’une négociation singulière entre un consortium et un éditeur scientifique, et aboutit parfois à des formules originales et complexes. À ce titre, l’espace des possibles en matière de formules financières n’est jamais totalement clos. Par ailleurs, la volonté des consortiums d’opérer une « transformation » de leurs accords vers la publication à coût constant renvoie à des définitions diversifiées du « coût » (inclusion ou non des dépenses d’APC préexistantes) et de la constance (admission ou pas d’une « inflation » à 2 ou 3%). De plus, nous n’avons observé aucune disposition contractuelle permettant d’anticiper les sommes en jeu au-delà de l’horizon temporel de l’accord courant. La grande diversité des accords provient d’une part des conditions initiales des relations entre consortiums et éditeurs scientifiques – les sommes dépensées en abonnement étant le point de départ des nouveaux accords –, d’autre part des objectifs de chaque partie. Même si cette étude excluait volontairement les négociations, les accords portent des traces de ces objectifs. Ainsi, de nombreux accords sont de nature explicitement expérimentale, quand certains visent un contrôle budgétaire strict, ou d’autres ambitionnent, dans la période plus récente, la publication du plus grand nombre possible d’articles en accès ouvert. C’est dans ce dernier cas qu’on touche à l’ambiguïté des attentes générales sur les accords transformants. En effet, pour les consortiums, la dimension « transformante » consiste essentiellement à transférer les sommes traditionnellement allouées à l’abonnement vers la publication en accès ouvert. Mais l’objectif n’est jamais de transformer le modèle économique des revues, c'est-à-dire de faire basculer des revues sous abonnement ou hybrides en revues entièrement en accès ouvert. D’ailleurs, aucune clause ne vise une telle fin – à l’exception du modèle d’accord proposé par l’éditeur ACM. Du côté des éditeurs, et notamment de Springer, le caractère cumulatif des accords nationaux passés vise à projeter un monde de la publication où l’accès ouvert devient de fait quantitativement très dominant, sans pour autant modifier de manière pérenne le modèle économique de leurs revues. Notre étude montre que les accords transformants actuels ne permettent pas d’assurer de manière durable une transition de l’économie de la publication vers l’accès ouvert, dans la mesure où ils n’offrent pas de garantie sur le contrôle des dépenses ni sur la pérennité de l’ouverture des contenus. L’avenir des relations entre consortium et éditeur demeure largement indéterminé.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
5

Rousseau, Henri-Paul. Gutenberg, L’université et le défi numérique. CIRANO, Dezember 2022. http://dx.doi.org/10.54932/wodt6646.

Der volle Inhalt der Quelle
Annotation:
Introduction u cours des deux derniers millénaires, il y a eu plusieurs façons de conserver, transmettre et même créer la connaissance ; la tradition orale, l’écrit manuscrit, l’écrit imprimé et l’écrit numérisé. La tradition orale et le manuscrit ont dominé pendant plus de 1400 ans, et ce, jusqu’à l’apparition du livre imprimé en 1451, résultant de l’invention mécanique de Gutenberg. Il faudra attendre un peu plus de 550 ans, avant que l’invention du support électronique déloge à son tour le livre imprimé, prenant une ampleur sans précédent grâce à la révolution numérique contemporaine, résultat du maillage des technologies de l’informatique, de la robotique et de la science des données. Les premières universités qui sont nées en Occident, au Moyen Âge, ont développé cette tradition orale de la connaissance tout en multipliant l’usage du manuscrit créant ainsi de véritables communautés de maîtres et d’étudiants ; la venue de l’imprimerie permettra la multiplication des universités où l’oral et l’écrit continueront de jouer un rôle déterminant dans la création et la transmission des connaissances même si le « support » a évolué du manuscrit à l’imprimé puis vers le numérique. Au cours de toutes ces années, le modèle de l’université s’est raffiné et perfectionné sur une trajectoire somme toute assez linéaire en élargissant son rôle dans l’éducation à celui-ci de la recherche et de l’innovation, en multipliant les disciplines offertes et les clientèles desservies. L’université de chaque ville universitaire est devenue une institution florissante et indispensable à son rayonnement international, à un point tel que l’on mesure souvent sa contribution par la taille de sa clientèle étudiante, l’empreinte de ses campus, la grandeur de ses bibliothèques spécialisées ; c’est toutefois la renommée de ses chercheurs qui consacre la réputation de chaque université au cours de cette longue trajectoire pendant laquelle a pu s’établir la liberté universitaire. « Les libertés universitaires empruntèrent beaucoup aux libertés ecclésiastiques » : Étudiants et maîtres, qu'ils furent, ou non, hommes d'Église, furent assimilés à des clercs relevant de la seule justice ecclésiastique, réputée plus équitable. Mais ils échappèrent aussi largement à la justice ecclésiastique locale, n'étant justiciables que devant leur propre institution les professeurs et le recteur, chef élu de l’université - ou devant le pape ou ses délégués. Les libertés académiques marquèrent donc l’émergence d'un droit propre, qui ménageait aux maîtres et aux étudiants une place à part dans la société. Ce droit était le même, à travers l'Occident, pour tous ceux qui appartenaient à ces institutions supranationales que furent, par essence, les premières universités. À la fin du Moyen Âge, l'affirmation des États nationaux obligea les libertés académiques à s'inscrire dans ce nouveau cadre politique, comme de simples pratiques dérogatoires au droit commun et toujours sujettes à révision. Vestige vénérable de l’antique indépendance et privilège octroyé par le prince, elles eurent donc désormais un statut ambigu » . La révolution numérique viendra fragiliser ce statut. En effet, la révolution numérique vient bouleverser cette longue trajectoire linéaire de l’université en lui enlevant son quasi monopole dans la conservation et le partage du savoir parce qu’elle rend plus facile et somme toute, moins coûteux l’accès à l’information, au savoir et aux données. Le numérique est révolutionnaire comme l’était l’imprimé et son influence sur l’université, sera tout aussi considérable, car cette révolution impacte radicalement tous les secteurs de l’économie en accélérant la robotisation et la numérisation des processus de création, de fabrication et de distribution des biens et des services. Ces innovations utilisent la radio-identification (RFID) qui permet de mémoriser et de récupérer à distance des données sur les objets et l’Internet des objets qui permet aux objets d’être reliés automatiquement à des réseaux de communications .Ces innovations s’entrecroisent aux technologies de la réalité virtuelle, à celles des algorithmiques intelligentes et de l’intelligence artificielle et viennent littéralement inonder de données les institutions et les organisations qui doivent alors les analyser, les gérer et les protéger. Le monde numérique est né et avec lui, a surgi toute une série de compétences radicalement nouvelles que les étudiants, les enseignants et les chercheurs de nos universités doivent rapidement maîtriser pour évoluer dans ce Nouveau Monde, y travailler et contribuer à la rendre plus humain et plus équitable. En effet, tous les secteurs de l’activité commerciale, économique, culturelle ou sociale exigent déjà clairement des connaissances et des compétences numériques et technologiques de tous les participants au marché du travail. Dans cette nouvelle logique industrielle du monde numérique, les gagnants sont déjà bien identifiés. Ce sont les fameux GAFAM (Google, Apple, Facebook, Amazon et Microsoft) suivis de près par les NATU (Netflix, Airbnb, Tesla et Uber) et par les géants chinois du numérique, les BATX (Baidu, Alibaba, Tenant et Xiaomi). Ces géants sont alimentés par les recherches, les innovations et les applications mobiles (APPs) créées par les partenaires de leurs écosystèmes regroupant, sur différents campus d’entreprises, plusieurs des cerveaux qui sont au cœur de cette révolution numérique. L’université voit donc remise en question sa capacité traditionnelle d’attirer, de retenir et de promouvoir les artisans du monde de demain. Son aptitude à former des esprits critiques et à contribuer à la transmission des valeurs universelles est également ébranlée par ce tsunami de changements. Il faut cependant reconnaître que les facultés de médecine, d’ingénierie et de sciences naturelles aux États-Unis qui ont développé des contacts étroits, abondants et suivis avec les hôpitaux, les grandes entreprises et l’administration publique et cela dès la fin du 19e siècle ont été plus en mesure que bien d’autres, de recruter et retenir les gens de talent. Elle ont énormément contribué à faire avancer les connaissances scientifiques et la scolarisation en sciences appliquées ..La concentration inouïe des Prix Nobel scientifiques aux États-Unis est à cet égard très convaincante . La révolution numérique contemporaine survient également au moment même où de grands bouleversements frappent la planète : l’urgence climatique, le vieillissement des populations, la « déglobalisation », les déplacements des populations, les guerres, les pandémies, la crise des inégalités, de l’éthique et des démocraties. Ces bouleversements interpellent les universitaires et c’est pourquoi leur communauté doit adopter une raison d’être et ainsi renouveler leur mission afin des mieux répondre à ces enjeux de la civilisation. Cette communauté doit non seulement se doter d’une vision et des modes de fonctionnement adaptés aux nouvelles réalités liées aux technologies numériques, mais elle doit aussi tenir compte de ces grands bouleversements. Tout ceci l’oblige à s’intégrer à des écosystèmes où les connaissances sont partagées et où de nouvelles compétences doivent être rapidement acquises. Le but de ce texte est de mieux cerner l’ampleur du défi que pose le monde numérique au milieu universitaire et de proposer quelques idées pouvant alimenter la réflexion des universitaires dans cette démarche d’adaptation au monde numérique. Or, ma conviction la plus profonde c’est que la révolution numérique aura des impacts sur nos sociétés et notre civilisation aussi grands que ceux provoqués par la découverte de l’imprimerie et son industrialisation au 15e siècle. C’est pourquoi la première section de ce document est consacrée à un rappel historique de la révolution de l’imprimerie par Gutenberg alors que la deuxième section illustrera comment les caractéristiques de la révolution numérique viennent soutenir cette conviction si profonde. Une troisième section fournira plus de détails sur le défi d’adaptation que le monde numérique pose aux universités alors que la quatrième section évoquera les contours du changement de paradigme que cette adaptation va imposer. La cinquième section servira à illustrer un scénario de rêves qui permettra de mieux illustrer l’ampleur de la gestion du changement qui guette les universitaires. La conclusion permettra de revenir sur quelques concepts et principes clefs pour guider la démarche vers l’action. L’université ne peut plus « être en haut et seule », elle doit être « au centre et avec » des écosystèmes de partenariats multiples, dans un modèle hybride physique/virtuel. C’est ainsi qu’elle pourra conserver son leadership historique de vigie du savoir et des connaissances d’un monde complexe, continuer d’établir l’authenticité des faits et imposer la nécessaire rigueur de la science et de l’objectivité.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
6

Introduction aux modèles multi-niveaux avec SPSS. Instats Inc., 2023. http://dx.doi.org/10.61700/zso05tsbfzey1469.

Der volle Inhalt der Quelle
Annotation:
Cette formation de 4 jours vous permettra d'acquérir les compétences nécessaires pour analyser des données non indépendantes en SPSS via des modèles multi-niveaux. Des données peuvent être non indépendantes si elles proviennent par exemple d'individus regroupés dans des entreprises, des écoles ou d'autres groupes, ou bien de mesures répétées effectuées sur des individus. Vous découvrirez les bases théoriques des modèles mixtes, qui combinent des effets fixes et aléatoires afin de prendre en compte la corrélation entre les observations. La formation couvrira les modèles pour réponse continue pour des données ayant une structure à 2 niveaux. Ces modèles incluent une ordonnée à l’origine aléatoire et éventuellement des pentes aléatoires. Pour les doctorants européens, le séminaire offre 1 point d'équivalence ECTS.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
7

Introduction aux modèles multi-niveaux avec SPSS. Instats Inc., 2023. http://dx.doi.org/10.61700/nf9h0jhj185vz469.

Der volle Inhalt der Quelle
Annotation:
Cette formation de 4 jours vous permettra d'acquérir les compétences nécessaires pour analyser des données non indépendantes en SPSS via des modèles multi-niveaux. Des données peuvent être non indépendantes si elles proviennent par exemple d'individus regroupés dans des entreprises, des écoles ou d'autres groupes, ou bien de mesures répétées effectuées sur des individus. Vous découvrirez les bases théoriques des modèles mixtes, qui combinent des effets fixes et aléatoires afin de prendre en compte la corrélation entre les observations. La formation couvrira les modèles pour réponse continue pour des données ayant une structure à 2 niveaux. Ces modèles incluent une ordonnée à l’origine aléatoire et éventuellement des pentes aléatoires. Pour les doctorants européens, le séminaire offre 1 point d'équivalence ECTS.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
Wir bieten Rabatte auf alle Premium-Pläne für Autoren, deren Werke in thematische Literatursammlungen aufgenommen wurden. Kontaktieren Sie uns, um einen einzigartigen Promo-Code zu erhalten!

Zur Bibliographie