Letteratura scientifica selezionata sul tema "Processus stochastiques en grande dimension"

Cita una fonte nei formati APA, MLA, Chicago, Harvard e in molti altri stili

Scegli il tipo di fonte:

Consulta la lista di attuali articoli, libri, tesi, atti di convegni e altre fonti scientifiche attinenti al tema "Processus stochastiques en grande dimension".

Accanto a ogni fonte nell'elenco di riferimenti c'è un pulsante "Aggiungi alla bibliografia". Premilo e genereremo automaticamente la citazione bibliografica dell'opera scelta nello stile citazionale di cui hai bisogno: APA, MLA, Harvard, Chicago, Vancouver ecc.

Puoi anche scaricare il testo completo della pubblicazione scientifica nel formato .pdf e leggere online l'abstract (il sommario) dell'opera se è presente nei metadati.

Articoli di riviste sul tema "Processus stochastiques en grande dimension"

1

Monbaron, Jacqueline. "À propos de la lucidité des acteurs en recherche-formation". Revue des sciences de l'éducation 31, n. 2 (18 aprile 2006): 355–76. http://dx.doi.org/10.7202/012760ar.

Testo completo
Abstract (sommario):
Résumé Cette contribution rend compte d’une recherche menée avec des formateurs d’adultes aux insertions professionnelles diverses. L’objectif consistait à faire ressortir les composantes de la construction identitaire de ces formateurs à la lumière de leur itinéraire institutionnel, raconté selon une approche biographique. L’expérience relatée rend compte d’un processus dans lequel recherche et formation sont étroitement liées dans la construction d’un savoir commun. Il est démontré que la place attribuée à la dimension existentielle favorise, d’une part, la médiation entre chercheurs et praticiens et qu’elle nécessite, d’autre part, une grande vigilance de la part des acteurs concernés, afin de garder une attitude critique face notamment à l’imbrication des différents rôles tenus par la protagoniste de la recherche tout au long du processus.
Gli stili APA, Harvard, Vancouver, ISO e altri
2

Ait-Taleb, Nabil, e Zied Mani. "La sous-exploitation d’une technologie de l’information intégrée comme forme de résistance des utilisateurs". Recherches en Sciences de Gestion N° 155, n. 2 (19 giugno 2023): 249–75. http://dx.doi.org/10.3917/resg.155.0249.

Testo completo
Abstract (sommario):
Cette recherche s’intéresse à la sous-exploitation d’une technologie de l’information intégrée, au prisme de la résistance de l’utilisateur. À partir d’une étude longitudinale qualitative dans une grande entreprise pétrolière, elle analyse le processus et le mécanisme de développement de cette forme particulière de résistance dans le cas d’un ERP (Enterprise Resource Planning). En mobilisant le modèle de résistance de Lapointe et Rivard (2005), nos résultats identifient la « sous-exploitation » comme une forme intermédiaire de résistance liée à un processus continu et itératif, particulièrement présente en phase de post-implémentation. De plus, nos résultats identifient trois dimensions de la sous-exploitation (informationnelle, fonctionnelle et individuelle) et soulignent que les conséquences inhérentes à chaque dimension sont susceptibles d’amplifier la résistance des utilisateurs.
Gli stili APA, Harvard, Vancouver, ISO e altri
3

Djoghlaf, Ahmed. "La dimension institutionnelle du développement durable". Les ateliers de l'éthique 1, n. 2 (18 aprile 2018): 57–69. http://dx.doi.org/10.7202/1044681ar.

Testo completo
Abstract (sommario):
La Conférence des Nations Unies sur l’environnement et le développement qui s’est tenue à Rio de Janeiro en juin 1992 a été, sans aucun doute, un événement marquant de la coopération multilatérale contemporaine. Le plus grand rassemblement multilatéral jamais organisé auparavant, cet événement aura marqué d’une empreinte indélébile l’architecture institutionnelle du traitement de la question envionnementale et façonne les institutions issues de la Conférence de Stockholm sur l’environnement humain. La Conférence de Rio aura été, au bout du compte, le point de départ d’une ère institutionelle nouvelle et d’une nouvelle façon d’aborder la coopération multilatérale pour la protection de l’environnement. La dimension institutionnelle de la question du développement durable renvoie nécessairement aux progrès qui restent à accomplir en vue d’une meilleure compréhension de la façon dont le développement durable est perçu au niveau national. Cette question traduit aussi la difficulté qu’il y a à adapter le mandat originel des institutions existantes aux exigences multiformes de l’intégration de la question de l’environnement dans les processus de développement économique et social. Elle exige surtout une action concertée tendue en vue d’une plus grande cohérence de l’action internationale qui serait au service d’une nouvelle démarche muliforme à l’égard de l’environnement, au service d’un développement respectueux des équilibres écologiques de notre planète.
Gli stili APA, Harvard, Vancouver, ISO e altri
4

Cavanagh, Martine. "Validation d’un programme d’intervention*". Revue des sciences de l'éducation 32, n. 1 (31 agosto 2006): 159–82. http://dx.doi.org/10.7202/013481ar.

Testo completo
Abstract (sommario):
Résumé La difficulté des jeunes scripteurs à rédiger des textes argumentatifs cohérents résulte en grande partie de faiblesses dans leurs stratégies et processus cognitifs. Cette recherche expérimentale à protocole préexpérimental a comme objectif d’évaluer les effets d’un programme d’intervention remodelé visant l’apprentissage de stratégies d’écriture sur la capacité des élèves à écrire des textes cohérents. Trois dimensions de la cohérence textuelle ont été prises en considération : la cohérence macrostructurelle, microstructurelle et situationnelle. Les résultats montrent que les élèves ont fait des progrès significatifs par rapport à chacune d’elles. Ils indiquent aussi qu’à l’exception de certains aspects de la dimension microstructurelle, ces progrès se sont maintenus à moyen terme.
Gli stili APA, Harvard, Vancouver, ISO e altri
5

Raimbault, Benjamin. "Dans l’ombre du génie génétique : le génie métabolique". Natures Sciences Sociétés 29, n. 3 (luglio 2021): 262–73. http://dx.doi.org/10.1051/nss/2021063.

Testo completo
Abstract (sommario):
Cet article se propose d’interroger la réduction du processus de molécularisation du vivant à sa dimension informationnelle à partir des années 1970-1980 en réintégrant une ontologie chimique du vivant qui se caractérise par la centralité des questions de production et une grande proximité avec l’industrie. La mise en visibilité et la caractérisation d’une molécularisation chimique du vivant sont enquêtées à partir de la naissance et la stabilisation d’un domaine scientifique peu connu : l’ingénierie métabolique. Pour cela, nous nous appuyons sur un travail associant analyse scientométrique d’un corpus de 6 288 articles scientifiques, traitement d’archives d’un centre de recherche ainsi qu’une série d’entretiens semi-directifs avec plusieurs figures fondatrices de l’ingénierie métabolique.
Gli stili APA, Harvard, Vancouver, ISO e altri
6

Sériot, Patrick. "L’alphabet analytique abkhaze de N. Marr : une pasigraphie génétique?" Cahiers du Centre de Linguistique et des Sciences du Langage, n. 35 (18 settembre 2013): 9–28. http://dx.doi.org/10.26034/la.cdclsl.2013.757.

Testo completo
Abstract (sommario):
L’alphabet analytique abkhaze de N. Marr a la mauvaise réputation d’être de peu d’utilité pratique à cause de sa complexité, ou bien de n’être pas suffisamment international, à cause de sa trop grande adéquation aux seuls sons de l’abkhaze. C’est pourtant faire peu de cas de son intérêt philosophique, qui en fait une oeuvre à replacer dans la lignée des grandes pasigraphies du XVIIIe siècle, à mi-chemin entre Court de Gébelin et John Wilkins, à ceci près que, à la différence de la philosophie du langage de l’époque des Lumières, cet alphabet ajoute une dimension génétique. Sa notation logique, ou décomposition analytique, est censée, en effet, refléter en même temps l’évolution phonique du «processus glottogonique unique» du langage humain.
Gli stili APA, Harvard, Vancouver, ISO e altri
7

Assaf, Marie. "«Normaliser» la vie des personnes handicapées par l'emploi? Le prisme d'associations aidant à l'intégration sur le marché du travail aux États-Unis". WELFARE E ERGONOMIA, n. 1 (settembre 2021): 40–50. http://dx.doi.org/10.3280/we2021-001005.

Testo completo
Abstract (sommario):
Cet article propose de réfléchir aux processus de «normalisation» de la vie des personnes handicapées aux États-Unis et plus précisément au cadre d'associations aidant à l'intégration dans le marché du travail. Il s'agit d'interroger ces discours et pratiques à par-tir d'une courte étude de terrain. Cette analyse institutionnelle couplée à une courte immer-sion auprès des acteurs (agents des associations et observation des personnes handicapées clientes des services) illustre la grande versatilité du système états-unien. Mais cela invite également à formuler une proposition réflexive sur la place du chercheur valide (et étranger): que peut-il apprendre de la dimension paternaliste de ces pratiques associatives (et comment les qualifier?) et dans quelle mesure cela aide-t-il à repenser la construction de la norme états-unienne? Mots clés: handicap; employ; tiers secteur; norme; inspirational porn.
Gli stili APA, Harvard, Vancouver, ISO e altri
8

Petitfour, Édith, Catherine Houdement e Nicole Audoin-Latourte. "L’influence de la modalité orale en géométrie". Éducation et didactique 18, n. 1 (2024): 115–34. http://dx.doi.org/10.4000/11ny0.

Testo completo
Abstract (sommario):
Cet article explore l’influence de la modalité orale dans la résolution d’un problème géométrique donné à des élèves de 9-11 ans. Il bénéfice d’une double perspective : sciences du langage et didactique des mathématiques, avec une forte dimension sémiotique. Le problème consiste à produire un dessin à main levée à partir d’un court texte (lu aux élèves) qui décrit une figure géométrique. Les analyses s’appuient sur un recueil des signes qui définissent les actions multimodales de l’enseignante et des élèves : paroles, gestes, postures, tracés. Les élèves construisent une grande variété de dessins erronés, l’analyse des processus de tracé révèle des cheminements complexes chez les élèves. L’étude montre l’impact de la modalité orale sur la difficulté de la tâche. Elle questionne la pertinence de la modalité orale pour la tâche étudiée, et plus généralement pour tout problème de conversion d’un texte vers un dessin.
Gli stili APA, Harvard, Vancouver, ISO e altri
9

Beguin, Rémi, Laurence Duchesne, Christophe Picault, Jean-Jacques Fry, Jean-Robert Courivaud e Pierre Philippe. "Modélisation physique de l’initiation et la progression de l’érosion de contact au sein des digues de canaux typiques des aménagements du Rhin et du Rhône". Revue Française de Géotechnique, n. 168 (2021): 4. http://dx.doi.org/10.1051/geotech/2021014.

Testo completo
Abstract (sommario):
Les digues des aménagements hydro-électriques du Rhône et du Rhin sont sensibles à un type d’érosion interne appelé érosion de contact et localisé aux interfaces sols fins/sols grossiers, notamment à l’interface noyau/fondation. Pour analyser ce phénomène, un programme de recherche a été mené conjointement par CNR et EDF depuis 2008, d’abord à l’échelle de l’échantillon au laboratoire LTHE (Université de Grenoble), puis à l’échelle d’un modèle physique à échelle 1 au CACOH à Lyon (Centre d’analyse comportementale des ouvrages hydrauliques, CNR). Ces essais ont d’abord démontré la possibilité de formation d’un conduit d’érosion à la base du noyau menant à une rupture rapide (Beguin et al., 2013a). Pour éviter ce type de rupture, une seconde phase a testé le rôle d’une recharge granulaire, comme parade à ce processus. Une troisième phase expérimentale s’est focalisée sur la recherche des conditions de stabilité de cette recharge, lorsque le conduit amène une forte pression hydraulique sous la recharge. Le dispositif expérimental à échelle 1 utilisé permet la construction de tronçons de digue expérimentale de 2,2 m de hauteur, 4 m de largeur et 8 m de longueur. Ces tronçons sont soumis au chargement hydraulique souhaité pendant une durée de quelques heures à deux semaines et suivis par une instrumentation adaptée. Grâce à ce modèle physique de digue de grande dimension, les scénarios de progression de l’érosion, qui mettent en jeu des échelles supérieures à celle de l’échantillon, ont été observés et analysés pour la première fois. La dernière phase expérimentale a abouti à la proposition de critères de stabilité d’une recharge granulaire vis-à-vis de ce processus d’érosion.
Gli stili APA, Harvard, Vancouver, ISO e altri
10

Pérez Calvo, Alberto. "Integración europea y Constitución europea". Civitas Europa 4, n. 1 (2000): 145–65. http://dx.doi.org/10.3406/civit.2000.926.

Testo completo
Abstract (sommario):
La construction communautaire européenne s'est effectuée jusqu'à présent à petits pas et par la technique juridique du Traité international. On est arrivé ainsi à un haut degré d'intégration, même si le système montre une complexité excessive et en conséquence une absence de clarté, ce qui diminue sa légitimité et son efficacité. Après une première étape où le seul moteur des Communautés Européennes étaient les Etats membres, l'irruption d'un Parlement européen élu au suffrage universel a mis en scène un nouvel acteur doté d'une légitimité et d'une autonomie propres. Le nouveau Parlement a cherché la simplification du système et, surtout, une place appropriée dans le processus de décision jusqu'alors monopolisé par le Conseil. C'est ainsi que surgissent les projets Spinelli (1984) et celui de la Constitution européenne (1994). Pour leur part, les Traités de Maastricht et d'Amsterdam, même s'ils ont compliqué encore davantage le système, ont amélioré d'une façon remarquable la situation du Parlement européen dans le processus de décision communautaire. Aujourd'hui, en Europe communautaire apparaissent deux éléments matériels qui pourraient favoriser la perspective d'une Constitution européenne : d'une part, l'Union européenne qui, en plus d'un acquis institutionnel considérable, offre des institutions très significatives dans ce sens, comme la citoyenneté européenne ; d'autre part, l'Etat, qui a acquis une nouvelle dimension, communautaire, indispensable pour pouvoir franchir ce pas. Cependant, l'auteur, qui défend le caractère nécessaire de la construction européenne face au caractère contingent d'une Constitution européenne, se montre sceptique à l'égard de cette possibilité. D'abord, parce que les objectifs substantiels poursuivis par les promoteurs d'une Constitution européenne, peuvent être atteints par les moyens conventionnels internationaux, comme jusqu'à présent. Ensuite, et fondamentalement, en raison de la grande difficulté qu'entraînerait la cession de la souveraineté à la nouvelle entité européenne de la part des Etats membres, i.e., de ses gouvernants mais aussi de ses citoyens.
Gli stili APA, Harvard, Vancouver, ISO e altri

Tesi sul tema "Processus stochastiques en grande dimension"

1

Godichon-Baggioni, Antoine. "Algorithmes stochastiques pour la statistique robuste en grande dimension". Thesis, Dijon, 2016. http://www.theses.fr/2016DIJOS053/document.

Testo completo
Abstract (sommario):
Cette thèse porte sur l'étude d'algorithmes stochastiques en grande dimension ainsi qu'à leur application en statistique robuste. Dans la suite, l'expression grande dimension pourra aussi bien signifier que la taille des échantillons étudiés est grande ou encore que les variables considérées sont à valeurs dans des espaces de grande dimension (pas nécessairement finie). Afin d'analyser ce type de données, il peut être avantageux de considérer des algorithmes qui soient rapides, qui ne nécessitent pas de stocker toutes les données, et qui permettent de mettre à jour facilement les estimations. Dans de grandes masses de données en grande dimension, la détection automatique de points atypiques est souvent délicate. Cependant, ces points, même s'ils sont peu nombreux, peuvent fortement perturber des indicateurs simples tels que la moyenne ou la covariance. On va se concentrer sur des estimateurs robustes, qui ne sont pas trop sensibles aux données atypiques. Dans une première partie, on s'intéresse à l'estimation récursive de la médiane géométrique, un indicateur de position robuste, et qui peut donc être préférée à la moyenne lorsqu'une partie des données étudiées est contaminée. Pour cela, on introduit un algorithme de Robbins-Monro ainsi que sa version moyennée, avant de construire des boules de confiance non asymptotiques et d'exhiber leurs vitesses de convergence $L^{p}$ et presque sûre.La deuxième partie traite de l'estimation de la "Median Covariation Matrix" (MCM), qui est un indicateur de dispersion robuste lié à la médiane, et qui, si la variable étudiée suit une loi symétrique, a les mêmes sous-espaces propres que la matrice de variance-covariance. Ces dernières propriétés rendent l'étude de la MCM particulièrement intéressante pour l'Analyse en Composantes Principales Robuste. On va donc introduire un algorithme itératif qui permet d'estimer simultanément la médiane géométrique et la MCM ainsi que les $q$ principaux vecteurs propres de cette dernière. On donne, dans un premier temps, la forte consistance des estimateurs de la MCM avant d'exhiber les vitesses de convergence en moyenne quadratique.Dans une troisième partie, en s'inspirant du travail effectué sur les estimateurs de la médiane et de la "Median Covariation Matrix", on exhibe les vitesses de convergence presque sûre et $L^{p}$ des algorithmes de gradient stochastiques et de leur version moyennée dans des espaces de Hilbert, avec des hypothèses moins restrictives que celles présentes dans la littérature. On présente alors deux applications en statistique robuste: estimation de quantiles géométriques et régression logistique robuste.Dans la dernière partie, on cherche à ajuster une sphère sur un nuage de points répartis autour d'une sphère complète où tronquée. Plus précisément, on considère une variable aléatoire ayant une distribution sphérique tronquée, et on cherche à estimer son centre ainsi que son rayon. Pour ce faire, on introduit un algorithme de gradient stochastique projeté et son moyenné. Sous des hypothèses raisonnables, on établit leurs vitesses de convergence en moyenne quadratique ainsi que la normalité asymptotique de l'algorithme moyenné
This thesis focus on stochastic algorithms in high dimension as well as their application in robust statistics. In what follows, the expression high dimension may be used when the the size of the studied sample is large or when the variables we consider take values in high dimensional spaces (not necessarily finite). In order to analyze these kind of data, it can be interesting to consider algorithms which are fast, which do not need to store all the data, and which allow to update easily the estimates. In large sample of high dimensional data, outliers detection is often complicated. Nevertheless, these outliers, even if they are not many, can strongly disturb simple indicators like the mean and the covariance. We will focus on robust estimates, which are not too much sensitive to outliers.In a first part, we are interested in the recursive estimation of the geometric median, which is a robust indicator of location which can so be preferred to the mean when a part of the studied data is contaminated. For this purpose, we introduce a Robbins-Monro algorithm as well as its averaged version, before building non asymptotic confidence balls for these estimates, and exhibiting their $L^{p}$ and almost sure rates of convergence.In a second part, we focus on the estimation of the Median Covariation Matrix (MCM), which is a robust dispersion indicator linked to the geometric median. Furthermore, if the studied variable has a symmetric law, this indicator has the same eigenvectors as the covariance matrix. This last property represent a real interest to study the MCM, especially for Robust Principal Component Analysis. We so introduce a recursive algorithm which enables us to estimate simultaneously the geometric median, the MCM, and its $q$ main eigenvectors. We give, in a first time, the strong consistency of the estimators of the MCM, before exhibiting their rates of convergence in quadratic mean.In a third part, in the light of the work on the estimates of the median and of the Median Covariation Matrix, we exhibit the almost sure and $L^{p}$ rates of convergence of averaged stochastic gradient algorithms in Hilbert spaces, with less restrictive assumptions than in the literature. Then, two applications in robust statistics are given: estimation of the geometric quantiles and application in robust logistic regression.In the last part, we aim to fit a sphere on a noisy points cloud spread around a complete or truncated sphere. More precisely, we consider a random variable with a truncated spherical distribution, and we want to estimate its center as well as its radius. In this aim, we introduce a projected stochastic gradient algorithm and its averaged version. We establish the strong consistency of these estimators as well as their rates of convergence in quadratic mean. Finally, the asymptotic normality of the averaged algorithm is given
Gli stili APA, Harvard, Vancouver, ISO e altri
2

Daw, Ibrahima. "Principe de grandes déviations pour la famille des mesures invariantes associées à des processus de diffusion en dimension infinie". Rouen, 1998. http://www.theses.fr/1998ROUES039.

Testo completo
Abstract (sommario):
Dans les deux premiers chapitres de cette thèse, nous étudions dans un premier temps le comportement asymptotique lorsque l'intervalle d'observation devient infiniment grand d'une famille de processus de diffusions à valeurs dans un espace de Hilbert séparable h, solutions des équations différentielles stochastiques suivantes : (e g) dX g t = a(X g t) + f(X g t)dt + e(X g t)dw(t) x g 0 = X , h. Nous prouvons, grâce à un théorème de C. Sunyach, pour chaque valeur du paramètre , l'existence et l'unicité d'une mesure invariante correspondant à la solution x g considérée. Cette méthode nous a fourni une inégalité qui assure la convergence étroite de la famille des mesures invariantes vers la masse de Dirac concentrée à l'origine. Ce dernier point nous dit, tout borélien a de h, dont l'adhérence ne contient pas l'origine, est de mesure limite nulle. Ainsi on s'est posé la question de savoir à quelle vitesse cette convergence a-t-elle lieu ? Nous avons trouvé que la convergence a lieu à une vitesse exponentielle, ceci grâce aux trois propriétés suivantes : _ propriété 1 l'uniformité du principe de grandes déviations de la famille (x g, > 0), qui a été montrée par S. Peszat. _ propriété 2 la formule suivante caractérisant la mesure invariante associée à un processus x g : () = hp X(X g(t) , ) g(dX). _ propriété 3 l'inégalité exponentielle suivante : for any l > 0, there exists r(l) such that lim g 0 sup ln g (X ; |X| r(l)) l. Dans le dernier chapitre de cette thèse, nous avons étendu les résultats précédents dans un cas particulier, en prenant comme espace d'état du processus, l'espace l 2(0, 1), cela nous a permis de montrer d'une part que pour chaque > 0, t > 0, X g , c 0(0, 1), pour tout < 1/2, d'autre part en appliquant un lemme classique du à Garcia-Rumsey-Rodemich de montrer que les supports des lois des processus X g, sont des compacts particuliers de c 0(0, 1), car des boules fermées en normes hölderiennes. Enfin, en utilisant un lemme de D. Ioffe, et les résultats des chapitres précédents, nous établissons un principe de grandes déviations de la famille des mesures invariantes dans c ( 00, 1).
Gli stili APA, Harvard, Vancouver, ISO e altri
3

Phan, Duy Nhat. "Algorithmes basés sur la programmation DC et DCA pour l’apprentissage avec la parcimonie et l’apprentissage stochastique en grande dimension". Electronic Thesis or Diss., Université de Lorraine, 2016. http://www.theses.fr/2016LORR0235.

Testo completo
Abstract (sommario):
De nos jours, avec l'abondance croissante de données de très grande taille, les problèmes de classification de grande dimension ont été mis en évidence comme un challenge dans la communauté d'apprentissage automatique et ont beaucoup attiré l'attention des chercheurs dans le domaine. Au cours des dernières années, les techniques d'apprentissage avec la parcimonie et l'optimisation stochastique se sont prouvées être efficaces pour ce type de problèmes. Dans cette thèse, nous nous concentrons sur le développement des méthodes d'optimisation pour résoudre certaines classes de problèmes concernant ces deux sujets. Nos méthodes sont basées sur la programmation DC (Difference of Convex functions) et DCA (DC Algorithm) étant reconnues comme des outils puissants d'optimisation non convexe. La thèse est composée de trois parties. La première partie aborde le problème de la sélection des variables. La deuxième partie étudie le problème de la sélection de groupes de variables. La dernière partie de la thèse liée à l'apprentissage stochastique. Dans la première partie, nous commençons par la sélection des variables dans le problème discriminant de Fisher (Chapitre 2) et le problème de scoring optimal (Chapitre 3), qui sont les deux approches différentes pour la classification supervisée dans l'espace de grande dimension, dans lequel le nombre de variables est beaucoup plus grand que le nombre d'observations. Poursuivant cette étude, nous étudions la structure du problème d'estimation de matrice de covariance parcimonieuse et fournissons les quatre algorithmes appropriés basés sur la programmation DC et DCA (Chapitre 4). Deux applications en finance et en classification sont étudiées pour illustrer l'efficacité de nos méthodes. La deuxième partie étudie la L_p,0régularisation pour la sélection de groupes de variables (Chapitre 5). En utilisant une approximation DC de la L_p,0norme, nous prouvons que le problème approché, avec des paramètres appropriés, est équivalent au problème original. Considérant deux reformulations équivalentes du problème approché, nous développons différents algorithmes basés sur la programmation DC et DCA pour les résoudre. Comme applications, nous mettons en pratique nos méthodes pour la sélection de groupes de variables dans les problèmes de scoring optimal et d'estimation de multiples matrices de covariance. Dans la troisième partie de la thèse, nous introduisons un DCA stochastique pour des problèmes d'estimation des paramètres à grande échelle (Chapitre 6) dans lesquelles la fonction objectif est la somme d'une grande famille des fonctions non convexes. Comme une étude de cas, nous proposons un schéma DCA stochastique spécial pour le modèle loglinéaire incorporant des variables latentes
These days with the increasing abundance of data with high dimensionality, high dimensional classification problems have been highlighted as a challenge in machine learning community and have attracted a great deal of attention from researchers in the field. In recent years, sparse and stochastic learning techniques have been proven to be useful for this kind of problem. In this thesis, we focus on developing optimization approaches for solving some classes of optimization problems in these two topics. Our methods are based on DC (Difference of Convex functions) programming and DCA (DC Algorithms) which are wellknown as one of the most powerful tools in optimization. The thesis is composed of three parts. The first part tackles the issue of variable selection. The second part studies the problem of group variable selection. The final part of the thesis concerns the stochastic learning. In the first part, we start with the variable selection in the Fisher's discriminant problem (Chapter 2) and the optimal scoring problem (Chapter 3), which are two different approaches for the supervised classification in the high dimensional setting, in which the number of features is much larger than the number of observations. Continuing this study, we study the structure of the sparse covariance matrix estimation problem and propose four appropriate DCA based algorithms (Chapter 4). Two applications in finance and classification are conducted to illustrate the efficiency of our methods. The second part studies the L_p,0regularization for the group variable selection (Chapter 5). Using a DC approximation of the L_p,0norm, we indicate that the approximate problem is equivalent to the original problem with suitable parameters. Considering two equivalent reformulations of the approximate problem we develop DCA based algorithms to solve them. Regarding applications, we implement the proposed algorithms for group feature selection in optimal scoring problem and estimation problem of multiple covariance matrices. In the third part of the thesis, we introduce a stochastic DCA for large scale parameter estimation problems (Chapter 6) in which the objective function is a large sum of nonconvex components. As an application, we propose a special stochastic DCA for the loglinear model incorporating latent variables
Gli stili APA, Harvard, Vancouver, ISO e altri
4

Langrené, Nicolas. "Méthodes numériques probabilistes en grande dimension pour le contrôle stochastique et problèmes de valorisation sur les marchés d'électricité". Phd thesis, Université Paris-Diderot - Paris VII, 2014. http://tel.archives-ouvertes.fr/tel-00957948.

Testo completo
Abstract (sommario):
Cette thèse traite de la résolution numérique de problèmes de contrôle stochastique, illustrée d'applications sur les marchés d'électricité. Tout d'abord, nous proposons un modèle structurel pour le prix d'électricité, autorisant des pics de prix bien au delà du coût marginal de production lorsque le marché est tendu. Ce modèle permet de valoriser et couvrir partiellement des produits dérivés sur l'électricité, avec pour actifs de couverture des contrats à terme sur combustibles. Nous étudions ensuite un algorithme, à base de simulations de Monte-Carlo et régressions à base locale, pour résoudre des problèmes généraux de commutation optimale. Nous établissons un taux de convergence complet de la méthode. De plus, nous rendons l'algorithme parcimonieux en usage mémoire en permettant d'éviter le stockage du faisceau de trajectoires. Nous l'illustrons sur le problème d'investissements en centrales électriques (lesquelles se répercutent sur le prix d'électricité grâce à notre modèle structurel). Enfin, nous étudions des problèmes de contrôle stochastique plus généraux (où le contrôle peut être continu et modifier la dynamique du processus d'état), dont la solution peut être étudiée via des Équations Différentielles Stochastiques Rétrogrades contraintes, pour lesquelles nous développons un algorithme, qui combine randomisation du contrôle et optimisation paramétrique. Un taux de convergence entre l'EDSR contrainte et sa version discrète est fourni, ainsi qu'un estimateur du contrôle optimal. Nous appliquons ensuite cet algorithme au problème de sur-réplication d'option sous volatilité incertaine.
Gli stili APA, Harvard, Vancouver, ISO e altri
5

Phan, Duy Nhat. "Algorithmes basés sur la programmation DC et DCA pour l’apprentissage avec la parcimonie et l’apprentissage stochastique en grande dimension". Thesis, Université de Lorraine, 2016. http://www.theses.fr/2016LORR0235/document.

Testo completo
Abstract (sommario):
De nos jours, avec l'abondance croissante de données de très grande taille, les problèmes de classification de grande dimension ont été mis en évidence comme un challenge dans la communauté d'apprentissage automatique et ont beaucoup attiré l'attention des chercheurs dans le domaine. Au cours des dernières années, les techniques d'apprentissage avec la parcimonie et l'optimisation stochastique se sont prouvées être efficaces pour ce type de problèmes. Dans cette thèse, nous nous concentrons sur le développement des méthodes d'optimisation pour résoudre certaines classes de problèmes concernant ces deux sujets. Nos méthodes sont basées sur la programmation DC (Difference of Convex functions) et DCA (DC Algorithm) étant reconnues comme des outils puissants d'optimisation non convexe. La thèse est composée de trois parties. La première partie aborde le problème de la sélection des variables. La deuxième partie étudie le problème de la sélection de groupes de variables. La dernière partie de la thèse liée à l'apprentissage stochastique. Dans la première partie, nous commençons par la sélection des variables dans le problème discriminant de Fisher (Chapitre 2) et le problème de scoring optimal (Chapitre 3), qui sont les deux approches différentes pour la classification supervisée dans l'espace de grande dimension, dans lequel le nombre de variables est beaucoup plus grand que le nombre d'observations. Poursuivant cette étude, nous étudions la structure du problème d'estimation de matrice de covariance parcimonieuse et fournissons les quatre algorithmes appropriés basés sur la programmation DC et DCA (Chapitre 4). Deux applications en finance et en classification sont étudiées pour illustrer l'efficacité de nos méthodes. La deuxième partie étudie la L_p,0régularisation pour la sélection de groupes de variables (Chapitre 5). En utilisant une approximation DC de la L_p,0norme, nous prouvons que le problème approché, avec des paramètres appropriés, est équivalent au problème original. Considérant deux reformulations équivalentes du problème approché, nous développons différents algorithmes basés sur la programmation DC et DCA pour les résoudre. Comme applications, nous mettons en pratique nos méthodes pour la sélection de groupes de variables dans les problèmes de scoring optimal et d'estimation de multiples matrices de covariance. Dans la troisième partie de la thèse, nous introduisons un DCA stochastique pour des problèmes d'estimation des paramètres à grande échelle (Chapitre 6) dans lesquelles la fonction objectif est la somme d'une grande famille des fonctions non convexes. Comme une étude de cas, nous proposons un schéma DCA stochastique spécial pour le modèle loglinéaire incorporant des variables latentes
These days with the increasing abundance of data with high dimensionality, high dimensional classification problems have been highlighted as a challenge in machine learning community and have attracted a great deal of attention from researchers in the field. In recent years, sparse and stochastic learning techniques have been proven to be useful for this kind of problem. In this thesis, we focus on developing optimization approaches for solving some classes of optimization problems in these two topics. Our methods are based on DC (Difference of Convex functions) programming and DCA (DC Algorithms) which are wellknown as one of the most powerful tools in optimization. The thesis is composed of three parts. The first part tackles the issue of variable selection. The second part studies the problem of group variable selection. The final part of the thesis concerns the stochastic learning. In the first part, we start with the variable selection in the Fisher's discriminant problem (Chapter 2) and the optimal scoring problem (Chapter 3), which are two different approaches for the supervised classification in the high dimensional setting, in which the number of features is much larger than the number of observations. Continuing this study, we study the structure of the sparse covariance matrix estimation problem and propose four appropriate DCA based algorithms (Chapter 4). Two applications in finance and classification are conducted to illustrate the efficiency of our methods. The second part studies the L_p,0regularization for the group variable selection (Chapter 5). Using a DC approximation of the L_p,0norm, we indicate that the approximate problem is equivalent to the original problem with suitable parameters. Considering two equivalent reformulations of the approximate problem we develop DCA based algorithms to solve them. Regarding applications, we implement the proposed algorithms for group feature selection in optimal scoring problem and estimation problem of multiple covariance matrices. In the third part of the thesis, we introduce a stochastic DCA for large scale parameter estimation problems (Chapter 6) in which the objective function is a large sum of nonconvex components. As an application, we propose a special stochastic DCA for the loglinear model incorporating latent variables
Gli stili APA, Harvard, Vancouver, ISO e altri
6

Bastide, Dorinel-Marian. "Handling derivatives risks with XVAs in a one-period network model". Electronic Thesis or Diss., université Paris-Saclay, 2024. http://www.theses.fr/2024UPASM027.

Testo completo
Abstract (sommario):
La réglementation requiert des établissements bancaires d'être en mesure de conduire des analyses de scénarios de tests de résistance (stress tests) réguliers de leurs expositions, en particulier face aux chambres de compensation (CCPs) auxquels ils sont largement exposés, en appliquant des chocs de marchés pour capturer le risque de marché et des chocs économiques pouvant conduire à l'état de faillite, dit aussi de défaut, divers acteurs financiers afin de refléter les risques de crédit et de contrepartie. Un des rôles principaux des CCPs est d'assurer par leur interposition entre acteurs financiers la réduction du risque de contrepartie associé aux pertes potentiels des engagements contractuels non respectés dus à la faillite d'une ou plusieurs des parties engagées. Elles facilitent également les divers flux financiers des activités de trading même en cas de défaut d'un ou plusieurs de leurs membres en re-basculant certaines des positions de ces membres et en allouant toute perte qui pourrait se matérialiser suite à ces défauts aux membres survivants . Pour développer une vision juste des risques et disposer d'outils performants de pilotage du capital, il apparaît essentiel d'être en mesure d'appréhender de manière exhaustive les pertes et besoins de liquidités occasionnés par ces divers chocs dans ces réseaux financiers ainsi que d'avoir une compréhension précise des mécanismes sous-jacents. Ce projet de thèse aborde différentes questions de modélisation permettant de refléter ces besoins, qui sont au cœur de la gestion des risques d'une banque dans les environnements actuels de trading centralisé. Nous commençons d'abord par définir un dispositif de modèle statique à une période reflétant les positions hétérogènes et possibilité de défauts joints de multiples acteurs financiers, qu'ils soient membres de CCPs ou autres participants financiers, pour identifier les différents coûts, dits de XVA, générés par les activités de clearing et bilatérales avec des formules explicites pour ces coûts. Divers cas d'usage de ce dispositif sont illustrés avec des exemples d'exercices de stress test sur des réseaux financiers depuis le point de vue d'un membre ou de novation de portefeuille de membres en défaut sur des CCPs avec les autres membres survivants. Des modèles de distributions à queues épaisses pour générer les pertes sur les portefeuilles et les défauts sont privilégiés avec l'application de techniques de Monte-Carlo en très grande dimension accompagnée des quantifications d'incertitudes numériques. Nous développons aussi l'aspect novation de portefeuille de membres en défauts et les transferts de coûts XVA associés. Ces novations peuvent s'exécuter soit sur les places de marchés (exchanges), soit par les CCP elles-mêmes qui désignent les repreneurs optimaux ou qui mettent aux enchères les positions des membres défaillants avec des expressions d'équilibres économiques. Les défauts de membres sur plusieurs CCPs en commun amènent par ailleurs à la mise en équation et la résolution de problèmes d'optimisation multidimensionnelle du transfert des risques abordées dans ces travaux
Finance regulators require banking institutions to be able to conduct regular scenario analyses to assess their resistance to various shocks (stress tests) of their exposures, in particular towards clearing houses (CCPs) to which they are largely exposed, by applying market shocks to capture market risk and economic shocks leading some financial players to bankruptcy, known as default state, to reflect both credit and counterparty risks. By interposing itself between financial actors, one of the main purposes of CCPs are to limit counterparty risk due to contractual payment failures due to one or several defaults among engaged parties. They also facilitate the various financial flows of the trading activities even in the event of default of one or more of their members by re-arranging certain positions and allocating any loss that could materialize following these defaults to the surviving members. To develop a relevant view of risks and ensure effective capital steering tools, it is essential for banks to have the capacity to comprehensively understand the losses and liquidity needs caused by these various shocks within these financial networks as well as to have an understanding of the underlying mechanisms. This thesis project aims at tackling modelling issues to answer those different needs that are at the heart of risk management practices for banks under clearing environments. We begin by defining a one-period static model for reflecting the market heterogeneous positions and possible joint defaults of multiple financial players, being members of CCPs and other financial participants, to identify the different costs, known as XVAs, generated by both clearing and bilateral activities, with explicit formulas for these costs. Various use cases of this modelling framework are illustrated with stress test exercises examples on financial networks from a member's point of view or innovation of portfolio of CCP defaulted members with other surviving members. Fat-tailed distributions are favoured to generate portfolio losses and defaults with the application of very large-dimension Monte-Carlo methods along with numerical uncertainty quantifications. We also expand on the novation aspects of portfolios of defaulted members and the associated XVA costs transfers. These innovations can be carried out either on the marketplaces (exchanges) or by the CCPs themselves by identifying the optimal buyers or by conducting auctions of defaulted positions with dedicated economic equilibrium problems. Failures of members on several CCPs in common also lead to the formulation and resolution of multidimensional optimization problems of risk transfer that are introduced in this thesis
Gli stili APA, Harvard, Vancouver, ISO e altri
7

Pommier, David. "Méthodes numériques sur des grilles sparse appliquées à l'évaluation d'options en finance". Paris 6, 2008. http://www.theses.fr/2008PA066499.

Testo completo
Abstract (sommario):
Cette thèse regroupe plusieurs travaux relatifs à la résolution numérique d'équations aux dérivées partielles et d'équations intégro-différentielles issues de la modélisation stochastique de produits financiers. La première partie des travaux est consacrée aux méthodes de Sparse Grid appliquées à la résolution numérique d'équations en dimension supérieure à trois. Deux types de problèmes sont abordés. Le premier concerne l'évaluation d'options vanilles dans un modèle à sauts avec une volatilité stochastique multi-facteurs. La résolution numérique de l'équation de valorisation, posée en dimension est obtenue à l'aide d'une méthode de différences finies sparse et d'une méthode de collocation pour la discrétisation de l'opérateur intégral. Le second problème traite de l'évaluation de produits sur un panier de plusieurs sous-jacents. Il nécessite le recours à une méthode de Galerkin sur une base d'ondelettes obtenue à l'aide d'un produit tensoriel sparse La seconde partie des travaux concerne des estimations d'erreur a posteriori pour des options américaines sur un panier de plusieurs actifs
In this work, we present some numerical methods to approximate Partial Differential Equation(PDEs) or Partial Integro-Differential Equations (PIDEs) commonly arising in finance. This thesis is split into three part. The first one deals with the study of Sparse Grid techniques. In an introductory chapter, we present the construction of Sparse Grid spaces and give some approximation properties. The second chapter is devoted to the presentation of a numerical algorithm to solve PDEs on these spaces. This chapter gives us the opportunity to clarify the finite difference method on Sparse Grid by looking at it as a collocation method. We make a few remarks on the practical implementation. The second part of the thesis is devoted to the application of Sparse Grid techniques to mathematical finance. We will consider two practical problems. In the first one, we consider a European vanilla contract with a multivariate generalisation of the one dimensional Ornstein-Ulenbeck-based stochastic volatility model. A relevant generalisation is to assume that the underlying asset is driven by a jump process, which leads to a PIDE. Due to the curse of dimensionality, standard deterministic methods are not competitive with Monte Carlo methods. We discuss sparse grid finite difference methods for solving the PIDE arising in this model up to dimension 4. In the second problem, we consider a Basket option on several assets (five in our example) in the Black & Scholes model. We discuss Galerkin methods in a sparse tensor product space constructed with wavelets. The last part of the thesis is concerned with a posteriori error estimates in the energy norm for the numerical solutions of parabolic obstacle problems allowing space/time mesh adaptive refinement. These estimates are based on a posteriori error indicators which can be computed from the solution of the discrete problem. We present the indicators for the variational inequality obtained in the context of the pricing of an American option on a two dimensional basket using the Black & Scholes model. All these techniques are illustrated by numerical examples
Gli stili APA, Harvard, Vancouver, ISO e altri
8

Carpentier, Alexandra. "De l'échantillonage optimal en grande et petite dimension". Thesis, Lille 1, 2012. http://www.theses.fr/2012LIL10041/document.

Testo completo
Abstract (sommario):
Pendant ma thèse, j’ai eu la chance d’apprendre et de travailler sous la supervision de mon directeur de thèse Rémi, et ce dans deux domaines qui me sont particulièrement chers. Je veux parler de la Théorie des Bandits et du Compressed Sensing. Je les voie comme intimement liés non par les méthodes mais par leur objectif commun: l’échantillonnage optimal de l’espace. Tous deux sont centrés sur les manières d’échantillonner l’espace efficacement : la Théorie des Bandits en petite dimension et le Compressed Sensing en grande dimension. Dans cette dissertation, je présente la plupart des travaux que mes co-auteurs et moi-même avons écrit durant les trois années qu’a duré ma thèse
During my PhD, I had the chance to learn and work under the great supervision of my advisor Rémi (Munos) in two fields that are of particular interest to me. These domains are Bandit Theory and Compressed Sensing. While studying these domains I came to the conclusion that they are connected if one looks at them trough the prism of optimal sampling. Both these fields are concerned with strategies on how to sample the space in an efficient way: Bandit Theory in low dimension, and Compressed Sensing in high dimension. In this Dissertation, I present most of the work my co-authors and I produced during the three years that my PhD lasted
Gli stili APA, Harvard, Vancouver, ISO e altri
9

Fabre, Jean-Pierre. "Suites mélangeantes de mesures aléatoires : estimation fonctionnelle et inégalités de grande déviation". Montpellier 2, 1998. http://www.theses.fr/1998MON20098.

Testo completo
Abstract (sommario):
Ce travail examine diverses proprietes des suites melangeantes de mesures aleatoires et leur application a l'estimation fonctionnelle. Apres un premier chapitre introductif, le deuxieme chapitre est consacre aux inegalites de grande deviation sous hypothese de melange, dont il rappelle certains theoremes fondamentaux et enonce quelques resultats. Les chapitres 3 et 4 traitent de la convergence d'une suite strictement stationnaire et fortement melangeante d'estimateurs a noyau de la derivee de radon-nikodym de la mesure moyenne d'un processus ponctuel par rapport a un autre, ainsi que de la vitesse en moyenne quadratique (chapitre 4) de cette convergence. Le chapitre 3 s'acheve sur l'expose detaille d'un exemple. Le chapitre 5 etudie la vitesse de convergence de la moyenne des sommes partielles d'une suite melangeante de mesures aleatoires a valeurs dans un espace de mesures muni d'une metrique separable. Il met en relation cette vitesse avec celle de la suite des realisations de cette suite de mesures sur des boreliens bornes.
Gli stili APA, Harvard, Vancouver, ISO e altri
10

Lounici, Karim. "Estimation Statistique En Grande Dimension, Parcimonie et Inégalités D'Oracle". Phd thesis, Université Paris-Diderot - Paris VII, 2009. http://tel.archives-ouvertes.fr/tel-00435917.

Testo completo
Abstract (sommario):
Dans cette thèse nous traitons deux sujets. Le premier sujet concerne l'apprentissage statistique en grande dimension, i.e. les problèmes où le nombre de paramètres potentiels est beaucoup plus grand que le nombre de données à disposition. Dans ce contexte, l'hypothèse généralement adoptée est que le nombre de paramètres intervenant effectivement dans le modèle est petit par rapport au nombre total de paramètres potentiels et aussi par rapport au nombre de données. Cette hypothèse est appelée ``\emph{sparsity assumption}''. Nous étudions les propriétés statistiques de deux types de procédures : les procédures basées sur la minimisation du risque empirique muni d'une pénalité $l_{1}$ sur l'ensemble des paramètres potentiels et les procédures à poids exponentiels. Le second sujet que nous abordons concerne l'étude de procédures d'agrégation dans un modèle de densité. Nous établissons des inégalités oracles pour la norme $L^{\pi}$, $1\leqslant \pi \leqslant \infty$. Nous proposons ensuite une application à l'estimation minimax et adaptative en la régularité de la densité.
Gli stili APA, Harvard, Vancouver, ISO e altri

Libri sul tema "Processus stochastiques en grande dimension"

1

1939-, Tzafestas S. G., e Watanabe Keigo 1952-, a cura di. Stochastic large-scale engineering systems. New York: M. Dekker, 1992.

Cerca il testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
2

Mandelbrot, Benoit B. Les objets fractals: Forme, hasard et dimension. 3a ed. [Paris]: Flammarion, 1989.

Cerca il testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
3

Mandelbrot, Benoit B. Fractals: Form, Chance, and Dimension. Echo Point Books and Media, 2020.

Cerca il testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
4

Mandelbrot, Benoit B. Fractals: Form, Chance, and Dimension. Echo Point Books and Media, 2020.

Cerca il testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
5

Les objects fractals: Forme, hasard et dimension. Flammarion, 2010.

Cerca il testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
6

Mandelbrot, Benoit B. Les objets fractals: Forme, hasard et dimension. FLAMMARION, 1994.

Cerca il testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
7

Mandelbrot, Benoit B. Les Objets fractals : Forme, hasard et dimension, survol du langage fractal. Flammarion, 1999.

Cerca il testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
8

Mandelbrot, Benoit B. Los Objetos Fractales: Forma, azar y dimensión. Tusquets, 2002.

Cerca il testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri

Atti di convegni sul tema "Processus stochastiques en grande dimension"

1

Sonesson, Göran. "Rhetoric from the standpoint of the Lifeworld". In Le Groupe μ : quarante ans de rhétorique – trente-trois ans de sémiotique visuelle. Limoges: Université de Limoges, 2010. http://dx.doi.org/10.25965/as.3106.

Testo completo
Abstract (sommario):
La rhétorique du point de vue du monde de la vie La rhétorique de l’image dont parlait Barthes, reprise d’une manière beaucoup plus systématique dans les travaux du Groupe µ, n’est qu’une partie de la rhétorique classique, l’elocutio, mais c’est aussi celle qui a dominé dans l’Occident pendant ces derniers 500 ans. À l’extérieur de la sémiotique, cependant, le renouveau de la rhétorique à l’époque contemporaine tend à concevoir cette dernière comme la science qu’étudie la communication. Or, nous savons que la sémiotique a souvent été identifiée comme étant la science de la communication, et un autre candidat à ce titre est sans doute l’herméneutique. Alors que ces trois disciplines ont toutes trait au processus entier, elles le conçoivent dans une perspective chaque fois différente. La rhétorique prend le point de vue du créateur du message : il demande comment il faut s’exprimer pour obtenir l’adhérence de l’autre. L’herméneutique prend le point de vue du récepteur : sa question porte sur les moyens pour comprendre le message de l'autre. La sémiotique prend une position intermédiaire aux deux autres, c’est-à-dire au sein de la phase allant de l’artefact à sa concrétisation : elle demande quelles sont les ressources disponibles pour faire se produire le processus. À une telle rhétorique informée par la sémiotique la contribution du Groupe µ a été de toute première importance. Cependant, l’investigation des ressources disponibles, qui sont différentes dans le cas de l’image que dans celui de la langue, peut recevoir une base plus certaine en partant du monde de la vie, dans le sens de la phénoménologie, qui est aussi celui de l’écologie dans le sens de Gibson et le monde naturel tel que le comprend Greimas. Si l’on veut comprendre la manière dont la divergence est produite dans les images, il faut commencer par considérer ce qui est donné pour acquis, dans le sens à la fois de ce qui est normal, et de ce qui est normatif. Dans le monde de la vie, il y a certaines choses qui ont tendance à se présenter ensemble, en contiguïté ou comme des parties d’un tout (désormais, la factorialité). C’est la dimension indicielle. Mais le sens commun s'attend également à ce que les choses qui apparaissent ensemble soient suffisamment différentes pour pouvoir être distinguées, sans aller à l'extrême opposé de s’exclure mutuellement (une observation qui peut être entendue comme une généralisation de ce que le Groupe µ dit sur la norme de l’image, la homomatérialité et la hétéroformalité). En ce sens, il y a une rhétorique de trop de ressemblance ainsi que de trop de différence. Nous appellerons ceci la dimension iconique. Une troisième rhétorique prend son point de départ dans le caractère de signe de l'image. Nos attentes sont déçues tant en trouvant une trop grande partie de la réalité dans l'image qu’en rencontrant des niveaux supplémentaires de fiction au sein du contenu pictural. On peut appeler ceci la dimension symbolique. Enfin, les images remplissent des fonctions différentes dans une société donnée et sont, en raison de ce fait, imputables à diverses catégories, donnant ainsi lieu à une quatrième rhétorique dans laquelle nos attentes, en ce qui concerne les catégories sociales auxquelles les images sont assignées, ne sont pas remplies. On peut parler ici d’une dimension de catégorisation socioculturelle. Avant d’aborder les figures rhétoriques, ou ce qui en tient lieu, il est cependant nécessaire de discuter dans quelle mesure les ressources des images comprennent une part de dispositio, dans d’autres termes, une structure argumentative. Si nous définissons une affirmation comme étant une construction verbale, alors il est trivialement vrai que les images ne peuvent rien affirmer. Toutefois, si nous définissons une affirmation plus simplement comme une opération, au moyen de laquelle une propriété particulière est assignée à une entité particulière, alors il est possible pour l'image de faire des affirmations à la façon des images. Or, même ceci peut sembler impossible, s’il est vrai que les images, comme on l’a souvent dit, ne font que reproduire le monde de notre expérience. Au contraire, il faut admettre que les images peuvent se servir des arguments qui, dans le sens de Perelman, s’appuient sur la structure de la réalité ou servent à changer cette structure-là. Il s’ensuit que les transformations homogènes, contrairement à ce que suggère le Groupe µ, font aussi partie de la rhétorique, mais de la rhétorique de la dispositio. Considérée comme l’une des transformations possibles à partir du monde de la vie, la première dimension de la rhétorique correspond plus directement à la rhétorique telle qu’elle a été conçue par le Groupe µ, mais en retournant aux fondements jetés par la sémiotique phénoménologique proposée dans Pictorial concepts (1989). Contrairement au Groupe µ, nous proposons de distinguer les transformations portant sur la factorialité (la relation des parties au tout) et celles concernant la contiguïté. C’est « l’objet indépendant », dans le sens de James Gibson, qui fait la différence entre la contiguïté et la factorialité : il s’agit d’un degré d’intégration plus ou moins poussée. En fait, il y a sans doute des cas intermédiaires entre l’objet indépendant avec ses parties et la constellation arbitraire, mais ces cas-là sont aussi qualitativement vécus : le jeu, la série, l’ensemble. La rhétorique, de ce point de vue, relève de la méréologie, la science des parties et du tout, formalisée par Lesniewski en tirant son inspiration de Husserl et de Twardowski. Notre deuxième observation concerne la nature de l’opération nous faisant passer du monde de la vie à l’image. Dans la majorité de cas, l’opération rhétorique, pour fonctionner, à besoin non pas d’une absence de ce qui est attendu ou de la présence de quelque chose qui n’est pas attendu, mais des deux à la fois. Rares sont les cas (surtout s’agissant de la contiguïté) où une simple absence peut créer un effet de rhétorique. Dans les termes de la rhétorique générale d’abord conçue par le Groupe µ, la substitution est une opération rhétorique plus sûre que l’addition ou la suppression. D’autre part, dans le cas de la factorialité, l’effet est tellement différent selon les relations entre le tout et les parties qu’il faut spécifier la nature du rapport de la partie au tout. Il faut surtout distinguer le cas où quelque chose est ajouté à un tout qui est déjà en soi un objet indépendant, et le cas où les parties font partie d’un autre objet indépendant que le tout qui est perçu. Nos attentes peuvent être déçues par d’autres opérations que l’absence ou la présence d’un élément. Il peut y avoir une contradiction entre l’élément attendu et l’élément réellement présent. C’est la dimension iconique de la rhétorique. Les images, il est vrai, ne peuvent pas présenter des contradictions proprement dites, mais elles peuvent comporter toute sorte de manifestations d’une ressemblance ou d’une différence plus grande que ce que l’on a anticipé. Cet effet est présent dans plusieurs exemples considérés par le Groupe µ, sans que la spécificité de l’opération soit prise en compte. S’agissant d’un signe, en l’occurrence d’une image, il y a toujours un risque de confusion entre le signe et ce qui est signifié, et il est possible d’en tirer une rhétorique. À un extrême, le signe peut incorporer des objets réels ; à l’autre extrême, il peut contenir d’autres signes, notamment d’autres images, comme c’est le cas avec les images représentant d’autres images. Il s’agit donc de la dimension symbolique de la rhétorique. Finalement, la catégorisation des signes, dans ce cas les images, peut donner lieu à une rhétorique plus clairement socioculturelle. Les images peuvent être catégorisées en tenant compte de leur manière de construction, de la fonction qu’elles sont censées remplir dans la société, ou de leur manière de circuler à l’intérieur de la société. Les attentes qui peuvent être déçues dans ces cas ne concernent pas seulement l’appartenance de certaines images à des catégories particulières, mais surtout la combinaison de certaines catégories de construction avec certaines catégories de fonction et certaines catégories de circulation. Toute l’aventure du modernisme dans l’art plastique peut être conçue comme un vaste geste rhétorique à partir de la notion d’art à la fin du 18e siècle : une peinture à l’huile (construction) circulant dans des salons, des galeries et des musées (circulation) ayant pour but de produire un effet de plaisir esthétique (fonction). Dans le présent texte, j'ai suggéré que, contrairement aux signes verbaux, les images sont immédiatement rhétoriques, parce qu'elles nous offrent en même temps leur similitude et leur différence par rapport au monde de la perception. Par conséquent, j'ai fait observer que la rhétorique des images doit être fondée sur les structures de perception telles qu’elles apparaissent au sens commun, surdéterminées par le monde de la vie socioculturel spécifique. La dimension primaire de la rhétorique de l’image, l’indexicalité, dérive sa signification d'un écart par rapport à l'intégration relative des voisinages, des objets indépendants et des totalités de niveaux supérieurs. Elle peut concerner la contiguïté ou la factorialité, mais elle suppose d'habitude à la fois la présence de quelque chose d’inattendu et l'absence de quelque chose de prévu. L’iconicité, qui détermine la deuxième dimension, est fondée sur l'expectative d'une différenciation relative des objets du monde, qui ne suppose pas trop de similitude, ni trop de dissimilitude. La troisième dimension dépend du caractère fictif de l’image comme signe, dont les niveaux peuvent être confondus soit par une expérience trop directe, soit par des degrés de fiction trop nombreux. Finalement, la quatrième dimension concerne l'image en tant qu’objet social, faisant partie de certaines catégories de construction, de circulation, et de fonction. L'avantage de cette conception, par rapport au modèle de Groupe µ auquel il est endetté, consiste en son attention plus proche aux structures de la perception du sens commun.
Gli stili APA, Harvard, Vancouver, ISO e altri
Offriamo sconti su tutti i piani premium per gli autori le cui opere sono incluse in raccolte letterarie tematiche. Contattaci per ottenere un codice promozionale unico!

Vai alla bibliografia