Academic literature on the topic 'Réduction de dimension (Statistique)'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the lists of relevant articles, books, theses, conference reports, and other scholarly sources on the topic 'Réduction de dimension (Statistique).'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Journal articles on the topic "Réduction de dimension (Statistique)"

1

Juan, Salvador. "Sur la production sociologique des types et classes de propriétés de la vie quotidienne." Sociétés contemporaines 17, no. 1 (July 1, 1994): 119–40. http://dx.doi.org/10.3917/soco.p1994.17n1.0119.

Full text
Abstract:
Résumé Analyser les activités sociales dans le champ de la vie quotidienne passe souvent, en sociologie, par un processus d'élaboration de typologies. Cet article montre les risques de ce processus dans différentes techniques d'investigation, en particulier les risques de fiction tels que les artefacts, statistiques et compréhensifs, de construction. Pour les éviter, il propose quelques éléments de réflexion autour au concept de « dimension translogique » : une version revue du principe de réduction d'un espace d'attributs que propose Lazarsfeld.
APA, Harvard, Vancouver, ISO, and other styles
2

Bontron, Jean-Claude. "La dimension statistique de la ruralité." Pour 228, no. 4 (2015): 57. http://dx.doi.org/10.3917/pour.228.0057.

Full text
APA, Harvard, Vancouver, ISO, and other styles
3

Morin, Denis. "Allométrie du système urbain du Québec (1941-1971)." Cahiers de géographie du Québec 19, no. 46 (April 12, 2005): 17–37. http://dx.doi.org/10.7202/021246ar.

Full text
Abstract:
Ce travail contribue à la connaissance du phénomène de la croissance du système urbain québécois avec l'aide de techniques statistiques. Notre double objectif est le suivant : d'une part établir la pertinence des taux de croissance allométrique calculés à l'aide de six points de référence dans le temps, et d'autre part identifier et surtout mesurer les forces qui articulent la croissance du système urbain québécois. Tout d'abord, il a été possible de voir comment la croissance des agglomérations se distribue dans l'espace. L'analyse a fait ressortir très tôt la grande complexité de la croissance. C'est pourquoi nous avons eu recours à un large éventail de variables (56). La technique de l'analyse factorielle a rendu possible la réduction de la plus grande partie de notre information en treize facteurs avec une perte inférieure à 17%. L'âge humain et matériel, la position spatiale et sociale, le dynamisme ainsi que le découpage du pourtour des agglomérations constituent les dimensions fondamentales de la croissance du système urbain québécois.
APA, Harvard, Vancouver, ISO, and other styles
4

Le Gorrec, Yann, Hui Peng, Laurent Lefèvre, Boussad Hamroun, and Françoise Couenne. "Systèmes hamiltoniens à ports de dimension infinie. Réduction et propriétés spectrales." Journal Européen des Systèmes Automatisés 45, no. 7-10 (December 30, 2011): 645–64. http://dx.doi.org/10.3166/jesa.45.645-664.

Full text
APA, Harvard, Vancouver, ISO, and other styles
5

Hannequin, P., P. D. Buffaz, C. Giuliani, and R. Zsigmond. "Application clinique osseuse et myocardique d’une méthode originale de réduction du bruit statistique dans les images scintigraphiques." Médecine Nucléaire 40, no. 3 (May 2016): 185. http://dx.doi.org/10.1016/j.mednuc.2016.03.042.

Full text
APA, Harvard, Vancouver, ISO, and other styles
6

Benoist, Olivier. "Exposé Bourbaki 1158 : Réduction stable en dimension supérieure (d'après Kollár, Hacon-Xu, ...)." Astérisque 422 (2020): 291–326. http://dx.doi.org/10.24033/ast.1137.

Full text
APA, Harvard, Vancouver, ISO, and other styles
7

Chouaf, Seloua, and Youcef Smara. "Méthode de sélection des bandes à base de l'Analyse en Composantes Indépendantes appliquée aux images hyperspectrales de télédétection." Revue Française de Photogrammétrie et de Télédétection, no. 204 (April 8, 2014): 57–62. http://dx.doi.org/10.52638/rfpt.2013.22.

Full text
Abstract:
Les données hyperspectrales se caractérisent par une importante dimension spectrale qui atteint quelques centaines de bandes étroites et contigües. Le volume occupé par ces images est non négligeable et fait que des taches usuelles telles que : le stockage, le traitement et l'analyse soient alourdies. Pour pallier ce problème et garantir une meilleure exploitation de ces données, nous proposons par le présent article, une méthode de réduction qui vise à créer un espace de représentation de dimension moindre, informatif et libéré des redondances tout en préservant la signification physique des bandes.Vu le pouvoir de séparation de l'analyse en composantes indépendantes «ACI», reconnu dans le cas des données multidimensionnelles à grand volume, nous l'exploitons pour extraire un ensemble de composantes statistiquement indépendantes obtenues par la minimisation de la gaussiannité. Différents degrés d'importance sont affectés aux bandes spectrales, permettant leur classement. Finalement, nous appliquons une sélection à l'ensemble des bandes classées et nous retenons les plus informatives afin de construire l'espace de représentation spectral réduit. Pour nos tests, nous avons appliqué l'ACI en considérant d'une part, une orthogonalisation à déflation (poursuite de projections, composantes ordonnées) et d'autre part, une orthogonalisation symétrique (estimation globale, composantes désordonnées). On suggère pour le cas symétrique, d'ajuster les données originales à un bruit additif afin d'obtenir des composantes indépendantes ordonnées (suivant le rapport signal à bruit). Les résultats recueillis montrent que la méthode proposée assure la réduction du cube hyperspectral avec d'acceptables rapports dimension-représentativité.
APA, Harvard, Vancouver, ISO, and other styles
8

Delay, Frédérick, and Philippe Ackerer. "The reduction of hydrological models for less tedious practical applications." Annales de la Société Géologique du Nord, no. 22 (December 1, 2015): 29–40. http://dx.doi.org/10.54563/asgn.1018.

Full text
Abstract:
Ce travail constate qu’il peut très souvent persister des incohérences entre la complexité des modèles hydrologiques (qui progressent en fonction de la connaissance acquise du fonctionnement du milieu naturel) et les données disponibles pour la documentation du modèle et son application. Ainsi, les modèles hydrologiques « intégrés » traitent de la dynamique hydrique complète d’un bassin versant mais ne sont conditionnables que sur des données qui ne distinguent que très partiellement toute la dimension de l’écoulement. Il est proposé de réduire ce type de modèle en agrégeant sa physique pour en réduire la dimension euclidienne. Le modèle devient alors un outil manipulable et en meilleure adéquation avec les données d’observation. Paradoxalement, la complexité de la physique d’un modèle peut aussi en faciliter la réduction. Traiter par exemple des écoulements dans un aquifère carbonaté par une approche double continuum augmente le nombre de paramètres locaux comparé à une approche simple continuum. Cependant, l’hétérogénéité structurale du réservoir étant inscrite dans les équations du modèle, la paramétrisation à l’échelle de l’aquifère se simplifie fortement. La réduction est ici le fait d’une diminution des efforts de conditionnement du modèle sur les données ; les exercices d’inversion et de prédiction deviennent abordables. Finalement, il semble aujourd’hui nécessaire d’envisager et jauger les progrès réalisés par les modèles, d’une part sur leur complexité accrue, d’autre part sur la capacité de réduire cette complexité en fonction des applications ciblées et des informations disponibles.
APA, Harvard, Vancouver, ISO, and other styles
9

L’Her, Jean-François, Cécile Le Moigne, and Patrick Savaria. "Importance relative des effets pays et secteurs dans les marchés développés*." Articles 83, no. 2 (February 4, 2008): 201–26. http://dx.doi.org/10.7202/017517ar.

Full text
Abstract:
Résumé Nous examinons l’importance relative des effets pays et secteurs dans l’explication des différences de rendements des actions des marchés développés au cours de la dernière décennie. Utilisant une méthodologie similaire à Heston et Rouwenhorst, nous mettons en évidence que les effets secteurs ont dominé les effets pays depuis 1998, pour culminer en 2001, et diminuer sans cesse depuis. L’exclusion des États-Unis ou des secteurs TMT (technologies, médias et télécommunications) mène à une augmentation de l’importance des effets pays et une réduction de l’importance des effets secteurs. Toutefois, cela ne modifie pas notre conclusion générale. L’effet associé aux devises accentue l’importance relative des effets pays et ne modifie pas les effets secteurs. Depuis 1998, la diversification selon la dimension sectorielle aurait été plus avantageuse que la diversification selon la dimension pays.
APA, Harvard, Vancouver, ISO, and other styles
10

Feillet, Raymonde, Stéphane Héas, and Dominique Bodin. "Corps et identité au grand âge." Le dossier : Les personnes âgées : repenser la vieillesse, renouveler les pratiques 24, no. 1 (February 29, 2012): 21–35. http://dx.doi.org/10.7202/1008216ar.

Full text
Abstract:
Cette étude réalisée auprès de personnes âgées de plus de 88 ans, vivant en Établissement d’hébergement pour personnes âgées dépendantes (ÉHPAD), éclaire des trajectoires du vieillissement diversifiées. Le corps étudié dans « tous ses états » permet de dépasser la seule dimension biologique et d’introduire les activités physiques et sportives (APS) comme outils pour préserver l’image de soi. Ces pratiques permettent de développer des stratégies pour combattre la vulnérabilité de son image à partir de la réduction des tensions s’appliquant au point « d’équilibre identitaire ». Cette notion a été introduite pour tenter de sortir de l’opposition continuitévschangement identitaire.
APA, Harvard, Vancouver, ISO, and other styles

Dissertations / Theses on the topic "Réduction de dimension (Statistique)"

1

Girard, Robin. "Réduction de dimension en statistique et application en imagerie hyper-spectrale." Phd thesis, Grenoble 1, 2008. http://www.theses.fr/2008GRE10074.

Full text
Abstract:
Cette thèse est consacrée à l'analyse statistique de données en grande dimension. Nous nous intéressons à trois problèmes statistiques motivés par des applications médicales : la classification supervisée de courbes, la segmentation supervisée d'images hyperspectrales et la segmentation non-supervisée d'images hyperspectrales. Les procédures développées reposent pour la plupart sur la théorie des tests d'hypothèses (tests multiples, minimax, robustes et fonctionnels) et la théorie de l'apprentissage statistique. Ces théories sont introduites dans une première partie. Nous nous intéressons, dans la deuxième partie, à la classification supervisée de données gaussiennes en grande dimension. Nous proposons une procédure de classification qui repose sur une méthode de réduction de dimension et justifions cette procédure sur le plan pratique et théorique. Dans la troisième et dernière partie, nous étudions le problème de segmentation d'images hyper-spectrales. D'une part, nous proposons un algorithme de segmentation supervisée reposant à la fois sur une analyse multi-échelle, une estimation par maximum de vraisemblance pénalisée, et une procédure de réduction de dimension. Nous justifions cet algorithme par des résultats théoriques et des applications pratiques. D'autre part, nous proposons un algorithme de segmentation non supervisée impliquant une décomposition en ondelette des spectres observées en chaque pixel, un lissage spatial par croissance adaptative de régions et une extraction des frontières par une méthode de vote majoritaire
This thesis deals with high dimensional statistical analysis. We focus on three different problems motivated by medical applications : curve classification, pixel classification and clustering in hyperspectral images. Our approaches are deeply linked with statistical testing procedures (multiple testing, minimax testing, robust testing, and functional testing) and learning theory. Both are introduced in the first part of this thesis. The second part focuses on classification of High dimensional Gaussian data. Our approach is based on a dimensionality reduction, and we show practical and theorical results. In the third and last part of this thesis we focus on hyperspectral image segmentation. We first propose a pixel classification algorithm based on multi-scale analysis, penalised maximum likelihood and feature selection. We give theorical results and simulations for this algorithm. We then propose a pixel clustering algorithm. It involves wavelet decomposition of observations in each pixel, smoothing with a growing region algorithm and frontier extraction based on a voting scheme
APA, Harvard, Vancouver, ISO, and other styles
2

Girard, Robin. "Réduction de dimension en statistique et application en imagerie hyper-spectrale." Phd thesis, Université Joseph Fourier (Grenoble), 2008. http://tel.archives-ouvertes.fr/tel-00379179.

Full text
Abstract:
Cette thèse est consacrée à l'analyse statistique de données en grande dimension. Nous nous intéressons à trois problèmes statistiques motivés par des applications médicales : la classification supervisée de courbes, la segmentation supervisée d'images hyperspectrales et la segmentation non-supervisée d'images hyperspectrales. Les procédures développées reposent pour la plupart sur la théorie des tests d'hypothèses (tests multiples, minimax, robustes et fonctionnels) et la théorie de l'apprentissage statistique. Ces théories sont introduites dans une première partie. Nous nous intéressons, dans la deuxième partie, à la classification supervisée de données gaussiennes en grande dimension. Nous proposons une procédure de classification qui repose sur une méthode de réduction de dimension et justifions cette procédure sur le plan pratique et théorique. Dans la troisième et dernière partie, nous étudions le problème de segmentation d'images hyper-spectrales. D'une part, nous proposons un algorithme de segmentation supervisée reposant à la fois sur une analyse multi-échelle, une estimation par maximum de vraisemblance pénalisée, et une procédure de réduction de dimension. Nous justifions cet algorithme par des résultats théoriques et des applications pratiques. D'autre part, nous proposons un algorithme de segmentation non supervisée impliquant une décomposition en ondelette des spectres observées en chaque pixel, un lissage spatial par croissance adaptative de régions et une extraction des frontières par une méthode de vote majoritaire.
APA, Harvard, Vancouver, ISO, and other styles
3

Kuentz, Vanessa. "Contributions à la réduction de dimension." Thesis, Bordeaux 1, 2009. http://www.theses.fr/2009BOR13871/document.

Full text
Abstract:
Cette thèse est consacrée au problème de la réduction de dimension. Cette thématique centrale en Statistique vise à rechercher des sous-espaces de faibles dimensions tout en minimisant la perte d'information contenue dans les données. Tout d'abord, nous nous intéressons à des méthodes de statistique multidimensionnelle dans le cas de variables qualitatives. Nous abordons la question de la rotation en Analyse des Correspondances Multiples (ACM). Nous définissons l'expression analytique de l'angle de rotation planaire optimal pour le critère de rotation choisi. Lorsque le nombre de composantes principales retenues est supérieur à deux, nous utilisons un algorithme de rotations planaires successives de paires de facteurs. Nous proposons également différents algorithmes de classification de variables qualitatives qui visent à optimiser un critère de partitionnement basé sur la notion de rapports de corrélation. Un jeu de données réelles illustre les intérêts pratiques de la rotation en ACM et permet de comparer empiriquement les différents algorithmes de classification de variables qualitatives proposés. Puis nous considérons un modèle de régression semiparamétrique, plus précisément nous nous intéressons à la méthode de régression inverse par tranchage (SIR pour Sliced Inverse Regression). Nous développons une approche basée sur un partitionnement de l'espace des covariables, qui est utilisable lorsque la condition fondamentale de linéarité de la variable explicative est violée. Une seconde adaptation, utilisant le bootstrap, est proposée afin d'améliorer l'estimation de la base du sous-espace de réduction de dimension. Des résultats asymptotiques sont donnés et une étude sur des données simulées démontre la supériorité des approches proposées. Enfin les différentes applications et collaborations interdisciplinaires réalisées durant la thèse sont décrites
This thesis concentrates on dimension reduction approaches, that seek for lower dimensional subspaces minimizing the lost of statistical information. First we focus on multivariate analysis for categorical data. The rotation problem in Multiple Correspondence Analysis (MCA) is treated. We give the analytic expression of the optimal angle of planar rotation for the chosen criterion. If more than two principal components are to be retained, this planar solution is used in a practical algorithm applying successive pairwise planar rotations. Different algorithms for the clustering of categorical variables are also proposed to maximize a given partitioning criterion based on correlation ratios. A real data application highlights the benefits of using rotation in MCA and provides an empirical comparison of the proposed algorithms for categorical variable clustering. Then we study the semiparametric regression method SIR (Sliced Inverse Regression). We propose an extension based on the partitioning of the predictor space that can be used when the crucial linearity condition of the predictor is not verified. We also introduce bagging versions of SIR to improve the estimation of the basis of the dimension reduction subspace. Asymptotic properties of the estimators are obtained and a simulation study shows the good numerical behaviour of the proposed methods. Finally applied multivariate data analysis on various areas is described
APA, Harvard, Vancouver, ISO, and other styles
4

Noyel, Guillaume. "Filtrage, réduction de dimension, classification et segmentation morphologique hyperspectrale." Phd thesis, École Nationale Supérieure des Mines de Paris, 2008. http://pastel.archives-ouvertes.fr/pastel-00004473.

Full text
Abstract:
Le traitement d'images hyperspectrales est la généralisation de l'analyse des images couleurs, à trois composantes rouge, vert et bleu, aux images multivariées à plusieurs dizaines ou plusieurs centaines de composantes. Dans un sens général, les images hyperspectrales ne sont pas uniquement acquises dans le domaine des longueurs d'ondes mais correspondent à une description d'un pixel par un ensemble de valeurs : c'est à dire un vecteur. Chacune des composantes d'une image hyperspectrale constitue un canal spectral, et le vecteur associé à chaque pixel est appelé spectre. Pour valider la généralité de nos méthodes de traitement, nous les avons appliquées à plusieurs types d'imagerie correspondant aux images hyperspectrales les plus variées : des photos avec quelques dizaines de composantes acquises dans le domaine des longueurs d'ondes, des images satellites de télédétection, des séries temporelles d'imagerie par résonance dynamique (DCE-MRI) et des séries temporelles d'imagerie thermique. Durant cette thèse, nous avons développé une chaîne complète de segmentation automatique des images hyperspectrales par des techniques morphologiques. Pour ce faire, nous avons mis au point une méthode efficace de débruitage spectral, par Analyse Factorielle des Correspondances (AFC), qui permet de conserver les contours spatiaux des objets, ce qui est très utile pour la segmentation morphologique. Puis nous avons fait de la réduction de dimension, par des méthodes d'analyse de données ou par modélisation des spectres, afin d'obtenir un autre représentation de l'image avec un nombre restreint de canaux. A partir de cette image de plus faible dimension, nous avons effectué une classification (supervisée ou non) pour grouper les pixels en classes spectralement homogènes. Cependant, les classes obtenues n'étant pas homogènes spatialement, i.e. connexes, une étape de segmentation s'est donc avérée nécessaire. Nous avons démontré que la méthode récente de la Ligne de Partage des Eaux Probabiliste était particulièrement adaptée à la segmentation des images hyperspectrales. Elle utilise différentes réalisations de marqueurs aléatoires, conditionnés par la classification spectrale, pour obtenir des réalisations de contours par Ligne de Partage des Eaux (LPE). Ces réalisations de contours permettent d'estimer une fonction de densité de probabilité de contours (pdf) qui est très facile à segmenter par une LPE classique. En définitive, la LPE probabiliste est conditionnée par la classification spectrale et produit donc des segmentations spatio-spectrales dont les contours sont très lisses. Cette chaîne de traitement à été mise en œuvre sur des séquences d'imagerie par résonance magnétique dynamique (DCE-MRI) et a permis d'établir une méthode automatique d'aide au diagnostic pour la détection de tumeurs cancéreuses. En outre, d'autres techniques de segmentation spatio-spectrales ont été développées pour les images hyperspectrales : les régions η-bornées et les boules µ-géodésiques. Grâce à l'introduction d'information régionale, elles améliorent les segmentations par zones quasi-plates qui n'utilisent quant à elles que de l'information locale. Enfin, nous avons mis au point une méthode très efficace de calcul de toutes les paires de distances géodésiques d'une image, puisqu'elle permet de réduire jusqu'à 50 % le nombre d'opérations par rapport à une approche naïve et jusqu'à 30 % par rapport aux autres méthodes. Le calcul efficace de ce tableau de distances offre des perspectives très prometteuses pour la réduction de dimension spatio-spectrale.
APA, Harvard, Vancouver, ISO, and other styles
5

Lopez, Olivier. "Réduction de dimension en présence de données censurées." Phd thesis, Rennes 1, 2007. http://tel.archives-ouvertes.fr/tel-00195261.

Full text
Abstract:
Nous considérons des modèles de régression où la variable expliquée est censurée à droite aléatoirement. Nous proposons de nouveaux estimateurs de la fonction de régression dans des modèles paramétriques, et nous proposons une procédure de test non paramétrique d'adéquation à ces modèles. Nous prolongeons ces méthodes à l'étude du modèle semi-paramétrique "single-index", généralisant ainsi des techniques de réduction de dimension utilisées en l'absence de censure. Nous nous penchons tout d'abord sur le cas d'un modèle où la variable de censure est indépendante de la variable expliquée ainsi que des variables explicatives. Nous travaillons dans un second temps dans un cadre moins restrictif où la variable expliquée et la censure sont indépendantes conditionnellement aux variables explicatives. Une difficulté spécifique à ce dernier type de modèle tient en l'impossibilité des techniques actuelles à estimer une espérance conditionnelle (de façon paramétrique ou non) en présence de plus d'une
variable explicative. Nous développons une nouvelle approche de réduction de la dimension afin de résoudre ce problème.
APA, Harvard, Vancouver, ISO, and other styles
6

Pedersen, Morten Akhøj. "Méthodes riemanniennes et sous-riemanniennes pour la réduction de dimension." Electronic Thesis or Diss., Université Côte d'Azur, 2023. http://www.theses.fr/2023COAZ4087.

Full text
Abstract:
Nous proposons dans cette thèse de nouvelles méthodes de réduction de dimension fondées sur la géométrie différentielle. Il s'agit de trouver une représentation d'un ensemble d'observations dans un espace de dimension inférieure à l'espace d'origine des données. Les méthodes de réduction de dimension constituent la pierre angulaire des statistiques et ont donc un très large éventail d'applications. Dans les statistiques euclidiennes ordinaires, les données appartiennent à un espace vectoriel et l'espace de dimension inférieure peut être un sous-espace linéaire ou une sous-variété non linéaire approximant les observations. L'étude de telles variétés lisses, la géométrie différentielle, joue naturellement un rôle important dans ce dernier cas. Lorsque l'espace des données est lui-même une variété, l'espace approximant de dimension réduite est naturellement une sous-variété de la variété initiale. Les méthodes d'analyse de ce type de données relèvent du domaine des statistiques géométriques. Les statistiques géométriques pour des observations appartenant à une variété riemannienne sont le point de départ de cette thèse, mais une partie de notre travail apporte une contribution même dans le cas de données appartenant à l'espace euclidien, mathbb{R}^d.Les formes, dans notre cas des courbes ou des surfaces discrètes ou continues, sont un exemple important de données à valeurs dans les variétés. En biologie évolutive, les chercheurs s'intéressent aux raisons et aux implications des différences morphologiques entre les espèces. Cette application motive la première contribution principale de la thèse. Nous généralisons une méthode de réduction de dimension utilisée en biologie évolutive, l'analyse en composantes principales phylogénétiques (P-PCA), pour travailler sur des données à valeur dans une variété riemannienne - afin qu'elle puisse être appliquée à des données de forme. P-PCA est une version de PCA pour des observations qui sont les feuilles d'un arbre phylogénétique. D'un point de vue statistique, la propriété importante de ces données est que les observations ne sont pas indépendantes. Nous définissons et estimons des moyennes et des covariances intrinsèquement pondérées sur une variété qui prennent en compte cette dépendance des observations. Nous définissons ensuite l'ACP phylogénétique sur une variété comme la décomposition propre de la covariance pondérée dans l'espace tangent de la moyenne pondérée. Nous montrons que l'estimateur de moyenne actuellement utilisé en biologie évolutive pour étudier la morphologie correspond à ne prendre qu'une seule étape de notre algorithme de descente de gradient riemannien pour la moyenne intrinsèque, lorsque les observations sont représentées dans l'espace des formes de Kendall.Notre deuxième contribution principale est une méthode non paramétrique de réduction de dimension fondée sur une classe très flexible de sous-variétés qui est novatrice même dans le cas de données euclidiennes. Grâce à une PCA locale, nous construisons tout d'abord un sous-fibré du fibré tangent sur la variété des données que nous appelons le sous-fibré principal. Cette distribution (au sens géométrique) induit une structure sous riemannienne. Nous montrons que les géodésiques sous-riemanniennes correspondantes restent proches de l'ensemble des observations et que l'ensemble des géodésiques partant d'un point donné génèrent localement une sous-variété qui est radialement alignée avec le sous-fibré principal, même lorsqu'il est non intégrables, ce qui apparait lorsque les données sont bruitées. Notre méthode démontre que la géométrie sous-riemannienne est le cadre naturel pour traiter de tels problèmes. Des expériences numériques illustrent la puissance de notre cadre en montrant que nous pouvons réaliser des reconstructions d'une extension importante, même en présence de niveaux de bruit assez élevés
In this thesis, we propose new methods for dimension reduction based on differential geometry, that is, finding a representation of a set of observations in a space of lower dimension than the original data space. Methods for dimension reduction form a cornerstone of statistics, and thus have a very wide range of applications. For instance, a lower dimensional representation of a data set allows visualization and is often necessary for subsequent statistical analyses. In ordinary Euclidean statistics, the data belong to a vector space and the lower dimensional space might be a linear subspace or a non-linear submanifold approximating the observations. The study of such smooth manifolds, differential geometry, naturally plays an important role in this last case, or when the data space is itself a known manifold. Methods for analysing this type of data form the field of geometric statistics. In this setting, the approximating space found by dimension reduction is naturally a submanifold of the given manifold. The starting point of this thesis is geometric statistics for observations belonging to a known Riemannian manifold, but parts of our work form a contribution even in the case of data belonging to Euclidean space, mathbb{R}^d.An important example of manifold valued data is shapes, in our case discrete or continuous curves or surfaces. In evolutionary biology, researchers are interested in studying reasons for and implications of morphological differences between species. Shape is one way to formalize morphology. This application motivates the first main contribution of the thesis. We generalize a dimension reduction method used in evolutionary biology, phylogenetic principal component analysis (P-PCA), to work for data on a Riemannian manifold - so that it can be applied to shape data. P-PCA is a version of PCA for observations that are assumed to be leaf nodes of a phylogenetic tree. From a statistical point of view, the important property of such data is that the observations (leaf node values) are not necessarily independent. We define and estimate intrinsic weighted means and covariances on a manifold which takes the dependency of the observations into account. We then define phylogenetic PCA on a manifold to be the eigendecomposition of the weighted covariance in the tangent space of the weighted mean. We show that the mean estimator that is currently used in evolutionary biology for studying morphology corresponds to taking only a single step of our Riemannian gradient descent algorithm for the intrinsic mean, when the observations are represented in Kendall's shape space. Our second main contribution is a non-parametric method for dimension reduction that can be used for approximating a set of observations based on a very flexible class of submanifolds. This method is novel even in the case of Euclidean data. The method works by constructing a subbundle of the tangent bundle on the data manifold via local PCA. We call this subbundle the principal subbundle. We then observe that this subbundle induces a sub-Riemannian structure and we show that the resulting sub-Riemannian geodesics with respect to this structure stay close to the set of observations. Moreover, we show that sub-Riemannian geodesics starting from a given point locally generate a submanifold which is radially aligned with the estimated subbundle, even for non-integrable subbundles. Non-integrability is likely to occur when the subbundle is estimated from noisy data, and our method demonstrates that sub-Riemannian geometry is a natural framework for dealing which such problems. Numerical experiments illustrate the power of our framework by showing that we can achieve impressively large range reconstructions even in the presence of quite high levels of noise
I denne afhandling præsenteres nye metoder til dimensionsreduktion, baseret p˚adifferential geometri. Det vil sige metoder til at finde en repræsentation af et datasæti et rum af lavere dimension end det opringelige rum. S˚adanne metoder spiller enhelt central rolle i statistik, og har et meget bredt anvendelsesomr˚ade. En laveredimensionalrepræsentation af et datasæt tillader visualisering og er ofte nødvendigtfor efterfølgende statistisk analyse. I traditionel, Euklidisk statistik ligger observationernei et vektor rum, og det lavere-dimensionale rum kan være et lineært underrumeller en ikke-lineær undermangfoldighed som approksimerer observationerne.Studiet af s˚adanne glatte mangfoldigheder, differential geometri, spiller en vigtig rollei sidstnævnte tilfælde, eller hvis rummet hvori observationerne ligger i sig selv er enmangfoldighed. Metoder til at analysere observationer p˚a en mangfoldighed udgørfeltet geometrisk statistik. I denne kontekst er det approksimerende rum, fundetvia dimensionsreduktion, naturligt en submangfoldighed af den givne mangfoldighed.Udgangspunktet for denne afhandling er geometrisk statistik for observationer p˚a ena priori kendt Riemannsk mangfoldighed, men dele af vores arbejde udgør et bidragselv i tilfældet med observationer i Euklidisk rum, Rd.Et vigtigt eksempel p˚a data p˚a en mangfoldighed er former, i vores tilfældediskrete kurver eller overflader. I evolutionsbiologi er forskere interesseret i at studeregrunde til og implikationer af morfologiske forskelle mellem arter. Former er ´en m˚adeat formalisere morfologi p˚a. Denne anvendelse motiverer det første hovedbidrag idenne afhandling. We generaliserer en metode til dimensionsreduktion brugt i evolutionsbiologi,phylogenetisk principal component analysis (P-PCA), til at virke for datap˚a en Riemannsk mangfoldighed - s˚a den kan anvendes til observationer af former. PPCAer en version af PCA for observationer som antages at være de yderste knuder iet phylogenetisk træ. Fra et statistisk synspunkt er den vigtige egenskab ved s˚adanneobservationer at de ikke nødvendigvis er uafhængige. We definerer og estimerer intrinsiskevægtede middelværdier og kovarianser p˚a en mangfoldighed, som tager højde fors˚adanne observationers afhængighed. Vi definerer derefter phylogenetisk PCA p˚a enmangfoldighed som egendekomposition af den vægtede kovarians i tanget-rummet tilden vægtede middelværdi. Vi viser at estimatoren af middelværdien som pt. bruges ievolutionsbiologi til at studere morfologi svarer til at tage kun et enkelt skridt af voresRiemannske gradient descent algoritme for den intrinsiske middelværdi, n˚ar formernerepræsenteres i Kendall´s form-mangfoldighed.Vores andet hovedbidrag er en ikke-parametrisk metode til dimensionsreduktionsom kan bruges til at approksimere et data sæt baseret p˚a en meget flexibel klasse afsubmangfoldigheder. Denne metode er ny ogs˚a i tilfældet med Euklidisk data. Metodenvirker ved at konstruere et under-bundt af tangentbundet p˚a datamangfoldighedenM via lokale PCA´er. Vi kalder dette underbundt principal underbundtet. Viobserverer at dette underbundt inducerer en sub-Riemannsk struktur p˚a M og vi viserat sub-Riemannske geodæter fra et givent punkt lokalt genererer en submangfoldighedsom radialt flugter med det estimerede subbundt, selv for ikke-integrable subbundter.Ved støjfyldt data forekommer ikke-integrabilitet med stor sandsynlighed, og voresmetode demonstrerer at sub-Riemannsk geometri er en naturlig tilgang til at h˚andteredette. Numeriske eksperimenter illustrerer styrkerne ved metoden ved at vise at denopn˚ar rekonstruktioner over store afstande, selv under høje niveauer af støj
APA, Harvard, Vancouver, ISO, and other styles
7

Damon, Cécilia. "Réduction de dimension et régularisation pour l'apprentissage statistique et la prédiction individuelle en IRMf." Paris 11, 2010. http://www.theses.fr/2010PA112107.

Full text
Abstract:
Les méthodes prédictives multivariées sont encore peu utilisées pour l'analyse de groupe en IRMf. La variabilité anatomo-fonctionnelle inter-¬individuelle et la grande dimension des données en comparaison au petit nombre de sujets rendent difficile l'identification de la variabilité fonctionnelle spécifiquement associée à un phénotype d'intérêt et accentuent le phénomène de sur-apprentissage des méthodes de prédiction multivariées. Notre premier objectif vise à explorer les différentes approches disponibles dans la littérature de l'apprentissage statistique supervisé pour gérer ce problème de sur-apprentissage et plus particulièrement les voies de la sélection d'attributs et de la classification linéaire régularisée. Notre deuxième objectif est de définir une méthodologie de comparaison à plusieurs niveaux des différentes stratégies proposées: (i) global: comparaison de l'ensemble des stratégies sur j'ensemble des jeux de données; (ii) local: comparaison limitée à un sous-ensemble de stratégies d'intérêt sur tous les jeux de données; (iii) individuel: comparaison de deux stratégies sur un seul jeu de données. Nous avons testé 4 couples de données (contraste d'IRMf, information phénotypique) extraits d'une base de données d'environ 200 sujets sains. Nous avons également construit deux jeux de simulation possédant un signal discriminant multivarié. L'analyse comparative ainsi que la visualisation des patterns fonctionnels a permis d'identifier une stratégie qui combine la sélection d'attributs multivariée RFE et le classifieur SRDA. Cette stratégie a identifié des patterns prédictifs parcimonieux et a obtenu de bonnes performances de prédiction
Predictive multivariate methods have yet been rarely explored in fMRI at the inter-subject level. An important inter-subjects anatomo-functional variability and the large dimension of fMRI data in comparison to the few number of subjects complicates the identification of the inter-subjects functional variability specific to a phenotype of interest and increases the overfitting phenomenon of classification techniques. Our first objective aims to explore the various approaches available in the field of supervised statistical learning and well-known to control the overfitting problem and more specifically two means: the feature selection and the regularised classification. Our second goal consist in defining a rigorous methodology of the different proposed strategies at several levels: (i) global: comparison of all the strategies based on all the datasets; (ii) local: comparison restricted to a particular subset of strategies based on all the datasets; (iii) individual: comparison of a pair of strategies based on a single dataset. We tested four couples of data (fMRI contrast, phenotypic information) extracted from a large database, including about 200 healthy subjects that have realized the same experimental protocol. We also constructed simulated datasets with a multivariate discriminant signal. The comparative analysis and the function patterns visualisation revealed the strategy combining the multivariate features selection RFE and the SRDA classifier as the most efficient. This strategy identified parcimonious predictive patterns and obtained good predictive performances proved to be relevant only when the contrast-to-noise ratio was strong
APA, Harvard, Vancouver, ISO, and other styles
8

Tournier, Maxime. "Réduction de dimension pour l'animation de personnages." Phd thesis, Université de Grenoble, 2011. http://tel.archives-ouvertes.fr/tel-00650696.

Full text
Abstract:
Dans cette thèse, nous proposons de nouvelles representations pourles poses du mouvement humain, apprises sur des données réelles, envue d'une synthèse de nouveaux mouvements en temps-réel. Dans unepremière partie, nous exploitons une méthode statistique adaptée auxgroupes de Lie (Analyse en Géodésiques Principales, AGP) pour approximerla variété des poses d'un sujet en mouvement, à partir de donnéesde capture de mouvement. Nous proposons un algorithme de cinématiqueinverse exploitant cette paramétrisation réduite, permettantpar construction de synthétiser des poses proches des données initiales.Nous validons ce modèle cinématique par une application à la compressionde données de mouvements, dans laquelle seules quelques trajectoiresdes extrémités des membres du squelettes permettent de reconstruireune bonne approximation de l'ensemble des données initiales.Dans une deuxième partie, nous étendons cette approche à l'animationphysique de personnages virtuels. La paramétrisation réduitepar AGP fournit les coordonnées généralisées de la formulation Lagrangiennede la mécanique. Nous dérivons un intégrateur temporelexplicite basé sur les intégrateurs variationnels. Afin d'en améliorer lastabilité, nous proposons un modèle d'amortissement inspiré de l'algorithmede Levenberg-Marquardt. Nous présentons également une méthodegéométrique d'apprentissage des limites angulaires sur des donnéesde capture de mouvement, ainsi que leur application comme contraintescinématiques.Dans une troisième partie, nous abordons le problème du contrôledu mouvement. En formulant les étapes de la simulation physique d'unepart, et de la cinématique inverse d'autre part comme deux programmesquadratiques, nous proposons un algorithme de pseudo-contrôle parinterpolation des métriques, permettant un compromis intuitif entre simulationphysique non-contrôlée, et cinématique inverse. Cette approchefaisant intervenir des forces externes, nous proposons une formulationalternative, utilisant uniquement les forces associées à la paramétrisationréduite des poses. Cette formulation est obtenue par relaxationdu problème théorique de contrôle sous contraintes unilatérales, nonconvexe,en un programme quadratique convexe. Ces algorithmes sontévalués sur des contrôleurs d'équilibre et de suivi.
APA, Harvard, Vancouver, ISO, and other styles
9

Zapien, Durand-Viel Karina. "Algorithme de chemin de régularisation pour l'apprentissage statistique." Phd thesis, INSA de Rouen, 2009. http://tel.archives-ouvertes.fr/tel-00557888.

Full text
Abstract:
La sélection d'un modèle approprié est l'une des tâches essentielles de l'apprentissage statistique. En général, pour une tâche d'apprentissage donnée, on considère plusieurs classes de modèles ordonnées selon un certain ordre de " complexité". Dans ce cadre, le processus de sélection de modèle revient 'a trouver la " complexité " optimale, permettant d'estimer un modèle assurant une bonne généralisation. Ce problème de sélection de modèle se résume à l'estimation d'un ou plusieurs hyper-paramètres définissant la complexité du modèle, par opposition aux paramètres qui permettent de spécifier le modèle dans la classe de complexité choisie. L'approche habituelle pour déterminer ces hyper-paramètres consiste à utiliser une " grille ". On se donne un ensemble de valeurs possibles et on estime, pour chacune de ces valeurs, l'erreur de généralisation du meilleur modèle. On s'intéresse, dans cette thèse, à une approche alternative consistant à calculer l'ensemble des solutions possibles pour toutes les valeurs des hyper-paramètres. C'est ce qu'on appelle le chemin de régularisation. Il se trouve que pour les problèmes d'apprentissage qui nous intéressent, des programmes quadratiques paramétriques, on montre que le chemin de régularisation associé à certains hyper-paramètres est linéaire par morceaux et que son calcul a une complexité numérique de l'ordre d'un multiple entier de la complexité de calcul d'un modèle avec un seul jeu hyper-paramètres. La thèse est organisée en trois parties. La première donne le cadre général des problèmes d'apprentissage de type SVM (Séparateurs à Vaste Marge ou Support Vector Machines) ainsi que les outils théoriques et algorithmiques permettant d'appréhender ce problème. La deuxième partie traite du problème d'apprentissage supervisé pour la classification et l'ordonnancement dans le cadre des SVM. On montre que le chemin de régularisation de ces problèmes est linéaire par morceaux. Ce résultat nous permet de développer des algorithmes originaux de discrimination et d'ordonnancement. La troisième partie aborde successivement les problèmes d'apprentissage semi supervisé et non supervisé. Pour l'apprentissage semi supervisé, nous introduisons un critère de parcimonie et proposons l'algorithme de chemin de régularisation associé. En ce qui concerne l'apprentissage non supervisé nous utilisons une approche de type " réduction de dimension ". Contrairement aux méthodes à base de graphes de similarité qui utilisent un nombre fixe de voisins, nous introduisons une nouvelle méthode permettant un choix adaptatif et approprié du nombre de voisins.
APA, Harvard, Vancouver, ISO, and other styles
10

Janon, Alexandre. "Analyse de sensibilité et réduction de dimension. Application à l'océanographie." Phd thesis, Université de Grenoble, 2012. http://tel.archives-ouvertes.fr/tel-00757101.

Full text
Abstract:
Les modèles mathématiques ont pour but de décrire le comportement d'un système. Bien souvent, cette description est imparfaite, notamment en raison des incertitudes sur les paramètres qui définissent le modèle. Dans le contexte de la modélisation des fluides géophysiques, ces paramètres peuvent être par exemple la géométrie du domaine, l'état initial, le forçage par le vent, ou les coefficients de frottement ou de viscosité. L'objet de l'analyse de sensibilité est de mesurer l'impact de l'incertitude attachée à chaque paramètre d'entrée sur la solution du modèle, et, plus particulièrement, identifier les paramètres (ou groupes de paramètres) og sensibles fg. Parmi les différentes méthodes d'analyse de sensibilité, nous privilégierons la méthode reposant sur le calcul des indices de sensibilité de Sobol. Le calcul numérique de ces indices de Sobol nécessite l'obtention des solutions numériques du modèle pour un grand nombre d'instances des paramètres d'entrée. Cependant, dans de nombreux contextes, dont celui des modèles géophysiques, chaque lancement du modèle peut nécessiter un temps de calcul important, ce qui rend inenvisageable, ou tout au moins peu pratique, d'effectuer le nombre de lancements suffisant pour estimer les indices de Sobol avec la précision désirée. Ceci amène à remplacer le modèle initial par un emph{métamodèle} (aussi appelé emph{surface de réponse} ou emph{modèle de substitution}). Il s'agit d'un modèle approchant le modèle numérique de départ, qui nécessite un temps de calcul par lancement nettement diminué par rapport au modèle original. Cette thèse se centre sur l'utilisation d'un métamodèle dans le cadre du calcul des indices de Sobol, plus particulièrement sur la quantification de l'impact du remplacement du modèle par un métamodèle en terme d'erreur d'estimation des indices de Sobol. Nous nous intéressons également à une méthode de construction d'un métamodèle efficace et rigoureux pouvant être utilisé dans le contexte géophysique.
APA, Harvard, Vancouver, ISO, and other styles

Books on the topic "Réduction de dimension (Statistique)"

1

Camara, Diatta. Données pour les politiques et programmes de développement: Besoins d'information statistique dans les Documents de stratégie de réduction de la pauvreté : Atelier régional de formation sur les nouveaux outils d'analyse des données socio-démographiqes issues d'opérations de collecte de grande envergure. Dakar Ponty, Sénégal: UNPFA/Country Technical Services Team Dakar, 2005.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
2

Bolla, Marianna, and Tamás Szabados. Multidimensional Stationary Time Series: Dimension Reduction and Prediction. Taylor & Francis Group, 2021.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
3

Bolla, Marianna, and Tamás Szabados. Multidimensional Stationary Time Series: Dimension Reduction and Prediction. Taylor & Francis Group, 2021.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
4

Multidimensional Stationary Time Series: Dimension Reduction and Prediction. Taylor & Francis Group, 2021.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
5

Multidimensional Stationary Time Series: Dimension Reduction and Prediction. CRC Press LLC, 2023.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
6

Bolla, Marianna. Multidimensional Stationary Time Series. Taylor & Francis Group, 2021.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
7

Greco, Luca, and Alessio Farcomeni. Robust Methods for Data Reduction. Taylor & Francis Group, 2015.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
8

Robust Methods for Data Reduction. Taylor & Francis Group, 2016.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
9

Multilabel Dimensionality Reduction. CRC Press, 2012.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
10

Ye, Jieping, Shuiwang Ji, and Liang Sun. Multi-Label Dimensionality Reduction. Taylor & Francis Group, 2016.

Find full text
APA, Harvard, Vancouver, ISO, and other styles

Book chapters on the topic "Réduction de dimension (Statistique)"

1

CHIQUET, Julien, Marie-Josée CROS, Mahendra MARIADASSOU, Nathalie PEYRARD, and Stéphane ROBIN. "Le modèle Poisson log-normal pour l’analyse de distributions jointes d’abondance." In Approches statistiques pour les variables cachées en écologie, 175–99. ISTE Group, 2022. http://dx.doi.org/10.51926/iste.9047.ch8.

Full text
Abstract:
Le modèle Poisson log-normal multivarié propose une modélisation conjointe des abondances des espèces d’une communauté distinguant les effets environnementaux (abiotiques) des interactions entre espèces (biotiques). Ses différentes variantes permettent la visualisation par réduction de dimension ou l’inférence du réseau d’interactions directes entre les espèces. Ces approches sont utilisées pour analyser l’écosystème marin de la forêt de kelp de l’île d’Anacapa.
APA, Harvard, Vancouver, ISO, and other styles
2

BYSTROVA, Daria, Giovanni POGGIATO, Julyan ARBEL, and Wilfried THUILLER. "Réduction de la dimension dans les modèles de distributions jointes d’espèces." In Approches statistiques pour les variables cachées en écologie, 151–74. ISTE Group, 2022. http://dx.doi.org/10.51926/iste.9047.ch7.

Full text
Abstract:
Nous présentons les modèles à facteurs latents dans le contexte des modèles de distribution joints d'espèces (JSDM), en soulignant leur utilité en écologie des communautés. Ces modèles permettent de faire face à la grande dimension des données d'observation dans l'espace et le temps, et qui limitent l'application des JSDMs. L'inférence se fait selon une approche bayésienne et est illustrée sur des données d'espèces végétales.
APA, Harvard, Vancouver, ISO, and other styles
3

"III. Réduction de dimension." In Régression avec R - 2e édition, 157–246. EDP Sciences, 2021. http://dx.doi.org/10.1051/978-2-7598-2183-9-005.

Full text
APA, Harvard, Vancouver, ISO, and other styles
4

"III. Réduction de dimension." In Régression avec R - 2e édition, 157–246. EDP Sciences, 2021. http://dx.doi.org/10.1051/978-2-7598-2183-9.c005.

Full text
APA, Harvard, Vancouver, ISO, and other styles
5

"La dimension conceptuelle." In Réduction de la fracture numérique en tourisme, 1–16. Presses de l'Université du Québec, 2003. http://dx.doi.org/10.2307/j.ctv18pgvv5.8.

Full text
APA, Harvard, Vancouver, ISO, and other styles
6

"4 Mécanique statistique classique : une dimension." In Transitions de phase et groupe de renormalisation, 89–120. EDP Sciences, 2020. http://dx.doi.org/10.1051/978-2-7598-0150-3-006.

Full text
APA, Harvard, Vancouver, ISO, and other styles
7

"4 Mécanique statistique classique : une dimension." In Transitions de phase et groupe de renormalisation, 89–120. EDP Sciences, 2020. http://dx.doi.org/10.1051/978-2-7598-0150-3.c006.

Full text
APA, Harvard, Vancouver, ISO, and other styles
8

Schaetzel, Françoise. "La réduction des inégalités sociales de santé : une dimension de la performance." In Améliorer la performance des systèmes de santé, 125–38. Les Presses de l’Université de Montréal, 2017. http://dx.doi.org/10.1515/9782760637542-008.

Full text
APA, Harvard, Vancouver, ISO, and other styles
9

KUZNETSOV, Igor, and Nickolay KUZNETSOV. "Méthodes de simulation rapide en files d’attente pour la résolution de certains problèmes combinatoires de grande taille." In Théorie des files d’attente 1, 167–205. ISTE Group, 2021. http://dx.doi.org/10.51926/iste.9001.ch6.

Full text
Abstract:
La simulation rapide de Monte Carlo est appliquée pour résoudre deux problèmes combinatoires à grande dimension. Le premier concerne l’estimation du nombre de sous-espaces k-dimensionnels d’un poids arbitraire d’un espace vectoriel n-dimensionnel sur un corps de Galois contenant q éléments. Les limites supérieures et inférieures sont construites grâce à une analytico-statistique. Le second problème concerne l’évaluation des « bonnes » permutations. La méthode de simulation rapide est proposée.
APA, Harvard, Vancouver, ISO, and other styles
10

Ripoll, Élodie. "« Ses yeux brillaient d’un éclat singulier »." In La couleur en questions, 103–12. Hermann, 2023. http://dx.doi.org/10.3917/herm.menu.2023.01.0103.

Full text
Abstract:
Résumé Ce chapitre s’interroge sur l’importance de la lumière dans la description du regard dans la littérature française des xviii e et xix e siècles. Un examen statistique des co-occurrences réalisé à partir des 1450 textes indexés dans Frantext montre le passage d’une perception du regard centrée sur l’éclat ou le manque d’éclat (donc sur la lumière) au xviii e siècle à une perception plus complexe au siècle suivant, qui privilégie la couleur sans pour autant négliger la lumière. Si cet exemple témoigne des bouleversements de la conception de la couleur et de l’importance des phénomènes visuels concurrents, il relance également le débat sur l’existence d’une quatrième dimension de la couleur, absente des modèles tridimensionnels traditionnels.
APA, Harvard, Vancouver, ISO, and other styles

Reports on the topic "Réduction de dimension (Statistique)"

1

de Marcellis-Warin, Nathalie, François Vaillancourt, Ingrid Peignier, Molivann Panot, Thomas Gleize, and Simon Losier. Obstacles et incitatifs à l’adoption des technologies innovantes dans le secteur minier québécois. CIRANO, May 2024. http://dx.doi.org/10.54932/dlxt6536.

Full text
Abstract:
Le présent rapport de recherche vise à identifier et à mieux comprendre les obstacles et les incitatifs à l'adoption de technologies innovantes dans le secteur minier québécois en phase d'exploitation, tout en examinant l'impact potentiel des critères ESG (environnementaux, sociaux et de gouvernance) sur cette adoption. Le constat initial, en se basant sur les plus récentes données publiées par Statistique Canada (période 2017-2019), soulignait un certain retard du secteur minier québécois en matière d'innovation par rapport à d'autres secteurs industriels ainsi qu’un certain retard en termes d’innovations organisationnelles par rapport aux compagnies minières ontariennes. Ce projet vise à mettre à jour ces constats, en particulier à la lumière des changements économiques des cinq dernières années. L'investissement minier au Québec a d’ailleurs connu une augmentation en 2022 par rapport aux cinq années précédentes. Le premier volet du projet repose sur une revue approfondie de la littérature concernant l'innovation minière et la finance durable, établissant ainsi une base solide de connaissances. Le deuxième volet du projet vise à actualiser les constats émanant de la littérature et à les valider, infirmer ou nuancer en les appliquant spécifiquement au contexte québécois. Cette phase a impliqué des entretiens avec 30 acteurs clés du secteur, complétés par plus de 50 rencontres informelles lors d'événements sectoriels. L'innovation au sein du secteur minier est considérée comme un levier créateur d'avantages compétitifs, engendrant des économies de coûts, une amélioration de l'efficacité et de la productivité, tout en offrant des avantages plus difficilement quantifiables, tels que la réduction des risques en matière de santé/sécurité, d'environnement, et de réputation. Toutefois, l'adoption des innovations dans le secteur minier est influencée par trois catégories de facteurs : les caractéristiques économiques inhérentes au secteur, notamment l’intensité en capital et l’aspect cyclique de l’industrie minière ; le contexte organisationnel complexe du secteur, axé sur la gestion des risques et marqué par une aversion aux pertes ; l'écosystème spécifique du secteur au Québec, caractérisé par des acteurs aux intérêts parfois divergents, qui rend parfois complexe la gouvernance des données, surtout dans un contexte d'intensification de la transformation numérique de l'industrie. L’essor des critères ESG dans le secteur minier crée de nouveaux défis. La demande croissante de transparence de la part des investisseurs peut impacter les entreprises, en particulier les sociétés minières, où le maintien de la licence sociale d'exploitation demeure crucial. Au-delà des émissions de gaz à effet de serre, une transparence accrue concernant les impacts sociaux et environnementaux devient essentielle. Bien que le lien entre la performance ESG et financière ne fasse pas l'objet d'un consensus actuellement, des pratiques ESG déficientes sont perçues comme préjudiciables. Le suivi précis des données ESG et une transparence reposant sur des cadres communs seront utiles pour anticiper d'éventuelles réglementations à venir. En conclusion, il est essentiel d'orienter les investissements vers des technologies durables, de promouvoir la collaboration avec tous les intervenants de l'industrie et de se préparer à une transparence accrue sur les critères ESG, harmonisée à l'échelle industrielle.
APA, Harvard, Vancouver, ISO, and other styles
2

Dufour, Quentin, David Pontille, and Didier Torny. Contracter à l’heure de la publication en accès ouvert. Une analyse systématique des accords transformants. Ministère de l'enseignement supérieur et de la recherche, April 2021. http://dx.doi.org/10.52949/2.

Full text
Abstract:
Cette étude porte sur une des innovations contemporaines liées à l’économie de la publication scientifique : les accords dits transformants, un objet relativement circonscrit au sein des relations entre consortiums de bibliothèques et éditeurs scientifiques, et temporellement situé entre 2015 et 2020. Ce type d’accords a pour objectif affiché d’organiser la transition du modèle traditionnel de l’abonnement à des revues (souvent proposées par regroupements thématiques ou collections) vers celui de l’accès ouvert en opérant une réaffectation des budgets qui y sont consacrés. Notre travail d’analyse sociologique constitue une première étude systématique de cet objet, fondée sur la recension de 197 accords. Le corpus ainsi constitué inclut des accords caractérisés par la coprésence d’une composante d’abonnement et d’une composante de publication en accès ouvert, même minimale (« jetons » de publication offerts, réduction sur les APC...). En conséquence, ont été exclus de l’analyse les accords portant uniquement sur du financement centralisé de publication en accès ouvert, que ce soit avec des éditeurs ne proposant que des revues avec paiement par l’auteur (PLOS, Frontiers, MDPI...) ou des éditeurs dont une partie du catalogue est constitué de revues en accès ouvert. L’accord le plus ancien de notre corpus a été signé en 2010, les plus récents en 2020 – les accords ne commençant qu’en 2021, même annoncés au cours de l’étude, n’ont pas été retenus. Plusieurs résultats se dégagent de notre analyse. Tout d’abord, on note une grande diversité des acteurs impliqués avec 22 pays et 39 éditeurs, même si certains consortiums (Pays-Bas, Suède, Autriche, Allemagne) et éditeurs (CUP, Elsevier, RSC, Springer) en ont signé beaucoup plus que d’autres. Ensuite, la durée des accords, comprise entre une et six années, révèle une distribution très inégalitaire, avec plus de la moitié des accords (103) signés pour 3 ans, ainsi qu’une faible proportion pour 4 ans ou plus (22 accords). Enfin, en dépit d’appels répétés à la transparence, moins de la moitié des accords (96) ont un texte accessible au moment de cette étude, sans qu’on puisse observer une tendance récente à une plus grande disponibilité. L’analyse montre également des degrés d’ouverture très variables, allant d’une simple information sur le répertoire ESAC en passant par la mise à disposition d’un format annotable jusqu’à l’attribution d’un DOI et d’une licence de réutilisation (CC-BY), en incluant le détail des sommes monétaires. Parmi les 96 accords disponibles, dont 47 signés en 2020, 62 ont fait l’objet d’une analyse en profondeur. C’est à notre connaissance la première analyse à cette échelle, sur un type de matériel non seulement inédit, mais qui était auparavant soumis à des clauses de confidentialité. Fondée sur une lecture minutieuse, l’étude décrit de manière fine leurs propriétés, depuis la matérialité du document jusqu’aux formules financières, en passant par leur morphologie et l’ensemble des droits et devoirs des parties. Les contenus des accords sont donc analysés comme une collection dont nous cherchons à déterminer les points communs et les variations, à travers des codages explicites sur certaines de leurs caractéristiques. L’étude pointe également des incertitudes, et notamment leur caractère « transitionnel », qui demeure fortement discuté. D’un point de vue morphologique, les accords montrent une grande diversité en matière de taille (de 7 à 488 pages) et de structure. Néanmoins, par définition, ils articulent tous deux objets essentiels : d’une part, les conditions de réalisation d’une lecture d’articles de revues, sous forme d’abonnement, mêlant des préoccupations d’accès et de sécurité ; d’autre part, les modalités de publication en accès ouvert, articulant la gestion d’un nouveau type de workflow à toute une série d’options possibles. Parmi ces options, mentionnons notamment le périmètre des revues considérées (hybrides et/ou accès ouvert), les licences disponibles, le degré d’obligation de cette publication, les auteurs éligibles ou le volume d’articles publiables. L’un des résultats les plus importants de cette analyse approfondie est la mise au jour d’un découplage presque complet, au sein même des accords, entre l’objet abonnement et l’objet publication. Bien entendu, l’abonnement est systématiquement configuré dans un monde fermé, soumis à paiement qui déclenche des séries d’identification des circulations légitimes tant du contenu informationnel que des usagers. Il insiste notamment sur les interdictions de réutilisation ou même de copie des articles scientifiques. À l’opposé, la publication en accès ouvert est attachée à un monde régi par l’accès gratuit au contenu, ce qui induit des préoccupations de gestion du workflow et des modalités d’accessibilité. De plus, les différents éléments constitutifs de ces objets contractuels ne sont pas couplés : d’un côté, les lecteurs sont constitués de l’ensemble des membres des institutions abonnées, de l’autre, seuls les auteurs correspondants (« corresponding authors ») sont concernés ; les listes de revues accessibles à la lecture et celles réservées à la publication en accès ouvert sont le plus souvent distinctes ; les workflows ont des objectifs et des organisations matérielles totalement différentes, etc. L’articulation entre les deux objets contractuels relève uniquement d’une formule de distribution financière qui, outre des combinaisons particulières entre l’un et l’autre, permet d’attribuer des étiquettes distinctes aux accords (offset agreement, publish & read, read & publish, read & free articles, read & discount). Au-delà de cette distribution, l’étude des arrangements financiers montre une gamme de dispositions allant d’une prévisibilité budgétaire totale, donc identique aux accords d’abonnement antérieurs, à une incertitude sur le volume de publication ou sur le montant définitif des sommes échangées. Les modalités concrètes de calcul des montants associés à la publication en accès ouvert sont relativement variées. S’il existe effectivement des formules récurrentes (volume d’articles multiplié par un prix individuel, reprise de la moyenne des sommes totales d’APC des années précédentes...), le calcul des sommes en jeu est toujours le résultat d’une négociation singulière entre un consortium et un éditeur scientifique, et aboutit parfois à des formules originales et complexes. À ce titre, l’espace des possibles en matière de formules financières n’est jamais totalement clos. Par ailleurs, la volonté des consortiums d’opérer une « transformation » de leurs accords vers la publication à coût constant renvoie à des définitions diversifiées du « coût » (inclusion ou non des dépenses d’APC préexistantes) et de la constance (admission ou pas d’une « inflation » à 2 ou 3%). De plus, nous n’avons observé aucune disposition contractuelle permettant d’anticiper les sommes en jeu au-delà de l’horizon temporel de l’accord courant. La grande diversité des accords provient d’une part des conditions initiales des relations entre consortiums et éditeurs scientifiques – les sommes dépensées en abonnement étant le point de départ des nouveaux accords –, d’autre part des objectifs de chaque partie. Même si cette étude excluait volontairement les négociations, les accords portent des traces de ces objectifs. Ainsi, de nombreux accords sont de nature explicitement expérimentale, quand certains visent un contrôle budgétaire strict, ou d’autres ambitionnent, dans la période plus récente, la publication du plus grand nombre possible d’articles en accès ouvert. C’est dans ce dernier cas qu’on touche à l’ambiguïté des attentes générales sur les accords transformants. En effet, pour les consortiums, la dimension « transformante » consiste essentiellement à transférer les sommes traditionnellement allouées à l’abonnement vers la publication en accès ouvert. Mais l’objectif n’est jamais de transformer le modèle économique des revues, c'est-à-dire de faire basculer des revues sous abonnement ou hybrides en revues entièrement en accès ouvert. D’ailleurs, aucune clause ne vise une telle fin – à l’exception du modèle d’accord proposé par l’éditeur ACM. Du côté des éditeurs, et notamment de Springer, le caractère cumulatif des accords nationaux passés vise à projeter un monde de la publication où l’accès ouvert devient de fait quantitativement très dominant, sans pour autant modifier de manière pérenne le modèle économique de leurs revues. Notre étude montre que les accords transformants actuels ne permettent pas d’assurer de manière durable une transition de l’économie de la publication vers l’accès ouvert, dans la mesure où ils n’offrent pas de garantie sur le contrôle des dépenses ni sur la pérennité de l’ouverture des contenus. L’avenir des relations entre consortium et éditeur demeure largement indéterminé.Cette étude porte sur une des innovations contemporaines liées à l’économie de la publication scientifique : les accords dits transformants, un objet relativement circonscrit au sein des relations entre consortiums de bibliothèques et éditeurs scientifiques, et temporellement situé entre 2015 et 2020. Ce type d’accords a pour objectif affiché d’organiser la transition du modèle traditionnel de l’abonnement à des revues (souvent proposées par regroupements thématiques ou collections) vers celui de l’accès ouvert en opérant une réaffectation des budgets qui y sont consacrés. Notre travail d’analyse sociologique constitue une première étude systématique de cet objet, fondée sur la recension de 197 accords. Le corpus ainsi constitué inclut des accords caractérisés par la coprésence d’une composante d’abonnement et d’une composante de publication en accès ouvert, même minimale (« jetons » de publication offerts, réduction sur les APC...). En conséquence, ont été exclus de l’analyse les accords portant uniquement sur du financement centralisé de publication en accès ouvert, que ce soit avec des éditeurs ne proposant que des revues avec paiement par l’auteur (PLOS, Frontiers, MDPI...) ou des éditeurs dont une partie du catalogue est constitué de revues en accès ouvert. L’accord le plus ancien de notre corpus a été signé en 2010, les plus récents en 2020 – les accords ne commençant qu’en 2021, même annoncés au cours de l’étude, n’ont pas été retenus. Plusieurs résultats se dégagent de notre analyse. Tout d’abord, on note une grande diversité des acteurs impliqués avec 22 pays et 39 éditeurs, même si certains consortiums (Pays-Bas, Suède, Autriche, Allemagne) et éditeurs (CUP, Elsevier, RSC, Springer) en ont signé beaucoup plus que d’autres. Ensuite, la durée des accords, comprise entre une et six années, révèle une distribution très inégalitaire, avec plus de la moitié des accords (103) signés pour 3 ans, ainsi qu’une faible proportion pour 4 ans ou plus (22 accords). Enfin, en dépit d’appels répétés à la transparence, moins de la moitié des accords (96) ont un texte accessible au moment de cette étude, sans qu’on puisse observer une tendance récente à une plus grande disponibilité. L’analyse montre également des degrés d’ouverture très variables, allant d’une simple information sur le répertoire ESAC en passant par la mise à disposition d’un format annotable jusqu’à l’attribution d’un DOI et d’une licence de réutilisation (CC-BY), en incluant le détail des sommes monétaires. Parmi les 96 accords disponibles, dont 47 signés en 2020, 62 ont fait l’objet d’une analyse en profondeur. C’est à notre connaissance la première analyse à cette échelle, sur un type de matériel non seulement inédit, mais qui était auparavant soumis à des clauses de confidentialité. Fondée sur une lecture minutieuse, l’étude décrit de manière fine leurs propriétés, depuis la matérialité du document jusqu’aux formules financières, en passant par leur morphologie et l’ensemble des droits et devoirs des parties. Les contenus des accords sont donc analysés comme une collection dont nous cherchons à déterminer les points communs et les variations, à travers des codages explicites sur certaines de leurs caractéristiques. L’étude pointe également des incertitudes, et notamment leur caractère « transitionnel », qui demeure fortement discuté. D’un point de vue morphologique, les accords montrent une grande diversité en matière de taille (de 7 à 488 pages) et de structure. Néanmoins, par définition, ils articulent tous deux objets essentiels : d’une part, les conditions de réalisation d’une lecture d’articles de revues, sous forme d’abonnement, mêlant des préoccupations d’accès et de sécurité ; d’autre part, les modalités de publication en accès ouvert, articulant la gestion d’un nouveau type de workflow à toute une série d’options possibles. Parmi ces options, mentionnons notamment le périmètre des revues considérées (hybrides et/ou accès ouvert), les licences disponibles, le degré d’obligation de cette publication, les auteurs éligibles ou le volume d’articles publiables. L’un des résultats les plus importants de cette analyse approfondie est la mise au jour d’un découplage presque complet, au sein même des accords, entre l’objet abonnement et l’objet publication. Bien entendu, l’abonnement est systématiquement configuré dans un monde fermé, soumis à paiement qui déclenche des séries d’identification des circulations légitimes tant du contenu informationnel que des usagers. Il insiste notamment sur les interdictions de réutilisation ou même de copie des articles scientifiques. À l’opposé, la publication en accès ouvert est attachée à un monde régi par l’accès gratuit au contenu, ce qui induit des préoccupations de gestion du workflow et des modalités d’accessibilité. De plus, les différents éléments constitutifs de ces objets contractuels ne sont pas couplés : d’un côté, les lecteurs sont constitués de l’ensemble des membres des institutions abonnées, de l’autre, seuls les auteurs correspondants (« corresponding authors ») sont concernés ; les listes de revues accessibles à la lecture et celles réservées à la publication en accès ouvert sont le plus souvent distinctes ; les workflows ont des objectifs et des organisations matérielles totalement différentes, etc. L’articulation entre les deux objets contractuels relève uniquement d’une formule de distribution financière qui, outre des combinaisons particulières entre l’un et l’autre, permet d’attribuer des étiquettes distinctes aux accords (offset agreement, publish & read, read & publish, read & free articles, read & discount). Au-delà de cette distribution, l’étude des arrangements financiers montre une gamme de dispositions allant d’une prévisibilité budgétaire totale, donc identique aux accords d’abonnement antérieurs, à une incertitude sur le volume de publication ou sur le montant définitif des sommes échangées. Les modalités concrètes de calcul des montants associés à la publication en accès ouvert sont relativement variées. S’il existe effectivement des formules récurrentes (volume d’articles multiplié par un prix individuel, reprise de la moyenne des sommes totales d’APC des années précédentes...), le calcul des sommes en jeu est toujours le résultat d’une négociation singulière entre un consortium et un éditeur scientifique, et aboutit parfois à des formules originales et complexes. À ce titre, l’espace des possibles en matière de formules financières n’est jamais totalement clos. Par ailleurs, la volonté des consortiums d’opérer une « transformation » de leurs accords vers la publication à coût constant renvoie à des définitions diversifiées du « coût » (inclusion ou non des dépenses d’APC préexistantes) et de la constance (admission ou pas d’une « inflation » à 2 ou 3%). De plus, nous n’avons observé aucune disposition contractuelle permettant d’anticiper les sommes en jeu au-delà de l’horizon temporel de l’accord courant. La grande diversité des accords provient d’une part des conditions initiales des relations entre consortiums et éditeurs scientifiques – les sommes dépensées en abonnement étant le point de départ des nouveaux accords –, d’autre part des objectifs de chaque partie. Même si cette étude excluait volontairement les négociations, les accords portent des traces de ces objectifs. Ainsi, de nombreux accords sont de nature explicitement expérimentale, quand certains visent un contrôle budgétaire strict, ou d’autres ambitionnent, dans la période plus récente, la publication du plus grand nombre possible d’articles en accès ouvert. C’est dans ce dernier cas qu’on touche à l’ambiguïté des attentes générales sur les accords transformants. En effet, pour les consortiums, la dimension « transformante » consiste essentiellement à transférer les sommes traditionnellement allouées à l’abonnement vers la publication en accès ouvert. Mais l’objectif n’est jamais de transformer le modèle économique des revues, c'est-à-dire de faire basculer des revues sous abonnement ou hybrides en revues entièrement en accès ouvert. D’ailleurs, aucune clause ne vise une telle fin – à l’exception du modèle d’accord proposé par l’éditeur ACM. Du côté des éditeurs, et notamment de Springer, le caractère cumulatif des accords nationaux passés vise à projeter un monde de la publication où l’accès ouvert devient de fait quantitativement très dominant, sans pour autant modifier de manière pérenne le modèle économique de leurs revues. Notre étude montre que les accords transformants actuels ne permettent pas d’assurer de manière durable une transition de l’économie de la publication vers l’accès ouvert, dans la mesure où ils n’offrent pas de garantie sur le contrôle des dépenses ni sur la pérennité de l’ouverture des contenus. L’avenir des relations entre consortium et éditeur demeure largement indéterminé.
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography