Academic literature on the topic 'Calcul dans la mémoire'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the lists of relevant articles, books, theses, conference reports, and other scholarly sources on the topic 'Calcul dans la mémoire.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Journal articles on the topic "Calcul dans la mémoire":

1

Aimé, X. "L’intelligence artificielle au service de la santé mentale." European Psychiatry 30, S2 (November 2015): S21. http://dx.doi.org/10.1016/j.eurpsy.2015.09.065.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
L’intelligence artificielle est l’objet de nombreuses recherches, mais aussi de nombreux fantasmes. Elle vise à reproduire l’intelligence humaine dans ses capacités d’apprentissage, de stockage de connaissances et de calculs. Dans le domaine de l’ingénierie des connaissances, les premières représentations se sont largement inspirées des essais de modélisation de la mémoire sémantique. Cette dernière, composante de la mémoire à long terme, est la mémoire des mots, des idées, des concepts. C’est également le seul système de mémoire déclarative qui résiste de façon remarquable aux effets de l’âge. Des modifications cognitives non spécifiques peuvent diminuer les performances des sujets‚ âgés dans différentes épreuves et signalent plutôt des difficultés d’accès à des représentations sémantiques qu’une atteinte du stock sémantique lui-même. Certaines démences, avec au premier rang d’entre elle la démence sémantique, et dans un moindre mesure la maladie d’Alzheimer, se traduisent entre autre par une atteinte de la mémoire sémantique. Nous proposons dans cet article d’utiliser le modèle des ontologies computationnelles, modélisation formelle et relativement fine, au service de la neuropsychologie : pour le praticien dans des systèmes d’aide à la décision, pour le patient à titre de prothèse cognitive externalisée, et pour le chercheur afin d’étudier la mémoire sémantique.
2

Hoff, X. "Intérêts et limites du test de Folstein dans l'évaluation des performances de sujets âgés, non déments et déments, hospitalisés." Psychiatry and Psychobiology 5, no. 4 (1990): 257–63. http://dx.doi.org/10.1017/s0767399x00003102.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
RésuméLe présent article analyse les intérêts et les limites du test de Folstein dans l'évaluation des performances de sujets âgés non-déments hospitalisés. Ce test possède une grande homogénéité interne et l'analyse factorielle permet de dégager des spécificités (mémoire récente, calcul). Les performances sont hautement influencées par l'âge et le niveau socio-professionnel pour accorder au seuil de 23 une valeur critique. Nos résultats convergent vers ceux d'Anthony, sur une population plus âgée. Des réserves doivent être apportées sur les résultats de l'analyse discriminante effectuée. Les commentaires des sujets, lors du passage du test, sont à prendre en considération et devraient être analysés de façon plus approfondie.
3

Borrione, Roberta. "Dictature militaire et université." Emulations - Revue de sciences sociales, no. 11 (January 3, 2012): 31–43. http://dx.doi.org/10.14428/emulations.011.002.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
De 1964 à 1985, le Brésil vit une période de gouvernement militaire de type dictatorial. La politique intérieure vise surtout à justifier les actions gouvernementales et met en avant le rôle des Forces armées comme défenseur de la démocratie et des idéaux chrétiens face à l’invasion communiste et à la corruption. Tout un ensemble de politiques est mis en place, y compris au sein du système éducatif. La communauté universitaire réagit de manière hétérogène. Trente ans après la fin de la dictature, quatorze professeurs de l’Université de São Paulo sont interviewés. Leurs remémorations des faits montrent des sentiments et des affects différents, parfois contradictoires. Cinq types de parcours de vie se dessinent. Le premier tient à une résistance de type proprement universitaire. Il s’agit, sur place, en poste, d’assurer la continuité de la recherche et de l’enseignement. Un deuxième type de parcours consiste à trouver refuge dans la clandestinité pour contrecarrer l’idéologie militaire, en poursuivant ses activités du quotidien en toute légalité. La duplicité en constitue le ressort. Un troisième représente l’exil, soit à l’intérieur du Brésil, soit à l’étranger. Un quatrième type de parcours relève d’un calcul que dénoncent certains professeurs : mettre à profit le système de contrôle idéologique en place pour en tirer des profits personnels. Un cinquième consiste à refuser certains événements introduits par le nouveau régime. La vie continue, ignorant les changements sociopolitiques. Une fois la dictature affaiblie, les discussions intellectuelles reprennent leur ancien élan. Certains types de parcours de vie convergent même vers des actions dans la vie politique. Une mémoire universitaire se construit par la mise en valeur d’actes de bravoure universitaire en dépit des actes de répression militaire.
4

Taleb, Rachid, Taieb Bessaad, Adil Yahdou, Fayçal Mehedi, and Abdelkader Belboula. "Apport des techniques neuromimétiques à la commande d'un onduleur asymétrique à onze niveaux Application à l'alimentation d'une MASDE." Journal of Renewable Energies 21, no. 4 (December 31, 2018): 661–74. http://dx.doi.org/10.54966/jreen.v21i4.719.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les onduleurs multi niveaux asymétriques triphasés, étudiés sont constitués de la mise en série d’onduleurs partiels par phase. La commande de ces derniers par la stratégie de l’élimination des ’harmoniques fait appel à la résolution des systèmes d’équations non linéaires pour obtenir les angles d’amorçage des composants électroniques, et l’implémentation pratique de cette stratégie nécessite une très grande capacité mémoire. Dans cet article, nous proposons une approche mathématique exigeant moins de calculs et d’implémentation facile est souhaitée. Cette approche est réalisée par les réseaux de neurones artificiels (RNA). Ces onduleurs sont utilisés pour l’entraînement de la machine asynchrone double étoile (MASDE). Les résultats de simulations obtenus ont montré un comportement très satisfaisant de la machine.
5

Dupâquier, Jacques. "Leibniz et la table de mortalité." Annales. Histoire, Sciences Sociales 40, no. 1 (February 1985): 136–43. http://dx.doi.org/10.3406/ahess.1985.283147.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Leibniz s'intéressait aux questions de population. Il avait vu la table de Graunt et le mémoire de Jean de Witt sur la valeur des rentes viagères. Il préconisait la création d'un Bureau central d'enregistrement des baptêmes, mariages et sépultures. Enfin, il a laissé deux papiers qui n'ont été malheureusement publiés qu'au siècle dernier, l'un en latin : Quaestiones calculi politici circa hominum vitam, et cognatae, l'autre en français : Essay de quelques raisonnements nouveaux sur la vie humaine et sur le nombre des hommes. Ces écrits ne sont pas datés ; d'après leur place dans la publication des œuvres complètes, ils semblent avoir été composés entre 1680 et 1689.Nous passerons rapidement sur le premier, bien qu'il témoigne de l'ampleur des vues de Leibniz. Certaines des questions posées débordent largement les sujets abordés par Graunt et par Petty, seuls auteurs à s'être intéressés jusqu'alors aux questions démographiques.
6

Valente, Daniela, Sophie Kern, and Christophe dos Santos. "Does first word development in bilingual French-Portuguese toddlers mirror monolingual one? A study exploring executive function abilities." SHS Web of Conferences 46 (2018): 10006. http://dx.doi.org/10.1051/shsconf/20184610006.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
L ’objectif de ce travail est d’évaluer le dédeveloppement lexical, précoce chez les enfants bilingues et d’explorer le lien possible entre la, taille du vocabulaire et les fonctions exécutives. Nous avons testé 15,bilingues français-portugais (7 de 16 mois et 8 de 24 mois). Leur, développement langagier a été évalué avec l'Inventaire du développement, communicatif français et portugais (adaptations du CDI MacArthur-Bates, Fenson et al., 2007). Des questionnaires parentaux ont été utilisés pour,évaluer la dominance linguistique (PaBiQ, Tuller, 2015), les stades de, développement (ASQ-3™, Squires et al., 2009) et les fonctions exécutives,(BRIEF-P, Gioia, Aspy, … Isquith, 2003). Nous avons calculé la taille du, vocabulaire dans chacune des langues, le vocabulaire total et le vocabulaire, conceptuel total et comparé avec les normes des monolingues. Presque, tous les participants ont un vocabulaire total dans chacune des langues,(français ou portugais) et un vocabulaire conceptuel total similaire à celui, des monolingues portugais et français. Leur vocabulaire total,(français+portugais) est par contre supérieur à celui des monolingues. Il, existe une corrélation entre la taille du vocabulaire et la mémoire de travail,(Stokes & Klee, 2009), mais aucune avec l'inhibition. Ces résultats donnent, un meilleur aperçu du processus de développement du langage bilingue.
7

Lesnoff, Matthieu. "Evaluation d’une méthode d’enquête rétrospective sur une période de douze mois pour estimer les taux de mise bas et de mortalité du bétail dans un système d’élevage africain traditionnel." Revue d’élevage et de médecine vétérinaire des pays tropicaux 62, no. 1 (January 1, 2009): 49. http://dx.doi.org/10.19182/remvt.10093.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les taux annuels de mise bas et de mortalité sont des données de base nécessaires pour quantifier la productivité des cheptels domestiques tropicaux élevés en milieux extensifs. Les suivis de troupeaux avec bouclage des animaux sont une méthode de référence pour estimer ces paramètres sur le terrain. Les méthodes transversales rétrospectives, basées sur des entretiens avec les éleveurs et leur mémoire à court ou long terme de la démographie des troupeaux, sont des alternatives. La présente étude a évalué une méthode rétrospective (12MO) pour estimer les taux de mise bas et de mortalité pour la période des douze derniers mois précédents l’enquête. Le biais de différentes approximations utilisées dans les calculs a été évalué d’après plusieurs jeux de données disponibles et collectées sur les bovins et les petits ruminants au Sénégal. Le principal résultat de l’étude a été la variabilité potentiellement élevée du biais (en particulier pour le taux de mortalité des petits ruminants pour lequel le biais relatif a varié entre -60 et 96 p. 100 dans la classe d’âge « 0 à 1 an »), malgré un biais médian acceptable (la médiane de biais relatif a été ≤ 6 p. 100 en valeur absolue). Les méthodes rétrospectives telles que 12MO devraient être utilisées avec parcimonie (par exemple pour évaluer approximativement l’impact immédiat de chocs importants ou d’innovations) et leurs résultats interprétés avec précaution. Lorsque cela est possible, les suivis de troupeaux (avec ou sans identification des animaux) sur plusieurs années consécutives devraient être privilégiés.
8

Popoviciu, Elena. "Hommage à la mémoire de Tiberiu Popoviciu." Journal of Numerical Analysis and Approximation Theory 30, no. 1 (February 1, 2001): 81–87. http://dx.doi.org/10.33993/jnaat301-685.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
On evoque l'activite scientique de l'academicien Tiberiu Popoviciu le fondateur de l'Institut de Calcul de Cluj-Napoca de l'Academie Roumaine et le fondateur de l'Ecole Mathematique Roumaine d'Analyse Numerique.
9

Krivine, Jean-Louis. "Lambda-calcul, évaluation paresseuse et mise en mémoire." RAIRO - Theoretical Informatics and Applications 25, no. 1 (1991): 67–84. http://dx.doi.org/10.1051/ita/1991250100671.

Full text
APA, Harvard, Vancouver, ISO, and other styles
10

GAGNON, ALEX. "MÉMOIRE TRAUMATIQUE ET MÉMOIRE COLLECTIVE DANS KAMOURASKA." Étude 42, no. 2 (May 29, 2017): 137–50. http://dx.doi.org/10.7202/1039922ar.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Inspiré d’un fait divers de 1839, le roman Kamouraska d’Anne Hébert raconte un meurtre, non pas comme événement objectif et extérieur, mais comme événement vécu et remémoré, sur un mode résolument traumatique, par l’héroïne Élisabeth d’Aulnières, complice du crime. En analysant cette représentation hébertienne de la mémoire, et qui plus est la manière dont le texte, à l’aide de procédés formels, exhibe ou mime le fonctionnement même des processus mémoriels, cet article entend réinscrire le roman dans la généalogie des représentations (orales et littéraires) du fait divers entre 1839 et 1970, généalogie dont Anne Hébert est à la fois l’héritière directe, pour des raisons familiales, et la critique, en tant que romancière : il s’agit de montrer, en un mot, que le roman peut être lu comme une représentation du fonctionnement de la mémoire collective devant les événements traumatiques dont elle conserve la trace.

Dissertations / Theses on the topic "Calcul dans la mémoire":

1

Ezzadeen, Mona. "Conception d'un circuit dédié au calcul dans la mémoire à base de technologie 3D innovante." Electronic Thesis or Diss., Aix-Marseille, 2022. http://theses.univ-amu.fr.lama.univ-amu.fr/221212_EZZADEEN_955e754k888gvxorp699jljcho_TH.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Avec le développement de l'internet des objets et de l'intelligence artificielle, le "déluge de données" est une réalité, poussant au développement de systèmes de calcul efficaces énergétiquement. Dans ce contexte, en effectuant le calcul directement à l'intérieur ou à proximité des mémoires, le paradigme de l'in/near-memory-computing (I/NMC) semble être une voie prometteuse. En effet, les transferts de données entre les mémoires et les unités de calcul sont très énergivores. Cependant, les classiques mémoires Flash souffrent de problèmes de miniaturisation et ne semblent pas facilement adaptées à l'I/NMC. Ceci n'est pas le cas de nouvelles technologies mémoires émergentes comme les ReRAM. Ces dernières souffrent cependant d'une variabilité importante, et nécessitent l'utilisation d'un transistor d'accès par bit (1T1R) pour limiter les courants de fuite, dégradant ainsi leur densité. Dans cette thèse, nous nous proposons de résoudre ces deux défis. Tout d'abord, l'impact de la variabilité des ReRAM sur les opérations de lecture et de calcul en mémoire est étudié, et de nouvelles techniques de calculs booléens robustes et à faible impact surfacique sont développées. Dans le contexte des réseaux de neurones, de nouveaux accélérateurs neuromorphiques à base de ReRAM sont proposés et caractérisés, visant une bonne robustesse face à la variabilité, un bon parallélisme et une efficacité énergétique élevée. Dans un deuxième temps, pour résoudre les problèmes de densité d'intégration, une nouvelle technologie de cube mémoire 3D à base de ReRAM 1T1R est proposée, pouvant à la fois être utilisée en tant que mémoire de type NOR 3D dense qu'en tant qu'accélérateur pour l'I/NMC
With the advent of edge devices and artificial intelligence, the data deluge is a reality, making energy-efficient computing systems a must-have. Unfortunately, classical von Neumann architectures suffer from the high cost of data transfers between memories and processing units. At the same time, CMOS scaling seems more and more challenging and costly to afford, limiting the chips' performance due to power consumption issues.In this context, bringing the computation directly inside or near memories (I/NMC) seems an appealing solution. However, data-centric applications require an important amount of non-volatile storage, and modern Flash memories suffer from scaling issues and are not very suited for I/NMC. On the other hand, emerging memory technologies such as ReRAM present very appealing memory performances, good scalability, and interesting I/NMC features. However, they suffer from variability issues and from a degraded density integration if an access transistor per bitcell (1T1R) is used to limit the sneak-path currents. This thesis work aims to overcome these two challenges. First, the variability impact on read and I/NMC operations is assessed and new robust and low-overhead ReRAM-based boolean operations are proposed. In the context of neural networks, new ReRAM-based neuromorphic accelerators are developed and characterized, with an emphasis on good robustness against variability, good parallelism, and high energy efficiency. Second, to resolve the density integration issues, an ultra-dense 3D 1T1R ReRAM-based Cube and its architecture are proposed, which can be used as a 3D NOR memory as well as a low overhead and energy-efficient I/NMC accelerator
2

Valat, Sébastien. "Contribution à l'amélioration des méthodes d'optimisation de la gestion de la mémoire dans le cadre du calcul haute performance." Versailles-St Quentin en Yvelines, 2014. http://www.theses.fr/2014VERS0014.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
L'évolution des architectures des calculateurs actuels est telle que la mémoire devient un problème majeur pour les performances. L'étude décrite dans ce document montre qu'il est déjà possible d'observer des pertes importantes imputables aux mécanismes de gestion de cette dernière. Dans ce contexte, nous nous sommes intéressés aux problèmes de gestion des gros segments mémoire sur les supercalculateurs multicoeurs NUMA de type Tera 100 et Curie. Notre travail est détaillé ici en suivant trois axes principaux. Nous analysons dans un premier temps les politiques de pagination de différents systèmes d'exploitation (coloration de pages, grosses pages. . . ). Nous mettons ainsi en évidence l'existence d'interférences néfastes entre ces politiques et les décisions de placement de l'allocateur en espace utilisateur. Nous complétons donc les études cache/allocateur et cache/pagination par une analyse de l'interaction cumulée de ces composants. Nous abordons ensuite la problématique des performances d'allocation des grands segments mémoire en considérant les échanges entre le système et l'allocateur. Nous montrons ici qu'il est possible d'obtenir des gains significatifs (de l'ordre de 50% sur une grosse application) en limitant ces échanges et en structurant l'allocateur pour un support explicite des architectures NUMA. La description de nos travaux s'achève sur une étude des problèmes d'extensibilité observés au niveau des fautes de pages du noyau Linux. Nous avons ainsi proposé une extension de la sémantique d'allocation afin d'éliminer la nécessité d'effectuer les coûteux effacements mémoire des pages au niveau système
Current supercomputer architectures are subject to memory related issues. For instance we can observe slowdowns induced by memory management mechanisms and their implementation. In this context, we focus on the management of large memory segments for multi-core and NUMA supercomputers similar to Tera 100 and Curie. We discuss our work in three parts. We first study several paging policies (page coloring, huge pages. . . ) from multiple operating systems. We demonstrate an interference between those policies and layout decisions taken by userspace allocators. Such interactions can significantly reduce cache efficiency depending on the application, particularly on multi-core architectures. This study extends existing works by studying interactions between the operating system, the allocator and caches. Then, we discuss performance issues when large memory segments are allocated. We consider the interaction between the OS and userspace allocators. We show that we can significantly improve some application performances (up to 50%) by controlling the memory exchange rate with the OS and by taking care of memory topologies. We finally study page fault extensibility in current Linux kernel implementation. We observe a large impact due to page zeroing which is a security requirement. We propose an improvement on memory allocation semantic aimed at avoiding page zeroing. It shows a new interest for huge pages to improve paging scalability without changing too much kernel algorithms
3

Slavova, Tzvetomila. "Résolution triangulaire de systèmes linéaires creux de grande taille dans un contexte parallèle multifrontal et hors-mémoire." Thesis, Toulouse, INPT, 2009. http://www.theses.fr/2009INPT016H/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Nous nous intéressons à la résolution de systèmes linéaires creux de très grande taille par des méthodes directes de factorisation. Dans ce contexte, la taille de la matrice des facteurs constitue un des facteurs limitants principaux pour l'utilisation de méthodes directes de résolution. Nous supposons donc que la matrice des facteurs est de trop grande taille pour être rangée dans la mémoire principale du multiprocesseur et qu'elle a donc été écrite sur les disques locaux (hors-mémoire : OOC) d'une machine multiprocesseurs durant l'étape de factorisation. Nous nous intéressons à l'étude et au développement de techniques efficaces pour la phase de résolution après une factorization multifrontale creuse. La phase de résolution, souvent négligée dans les travaux sur les méthodes directes de résolution directe creuse, constitue alors un point critique de la performance de nombreuses applications scientifiques, souvent même plus critique que l'étape de factorisation. Cette thèse se compose de deux parties. Dans la première partie nous nous proposons des algorithmes pour améliorer la performance de la résolution hors-mémoire. Dans la deuxième partie nous pousuivons ce travail en montrant comment exploiter la nature creuse des seconds membres pour réduire le volume de données accédées en mémoire. Dans la première partie de cette thèse nous introduisons deux approches de lecture des données sur le disque dur. Nous montrons ensuite que dans un environnement parallèle le séquencement des tâches peut fortement influencer la performance. Nous prouvons qu'un ordonnancement contraint des tâches peut être introduit; qu'il n'introduit pas d'interblocage entre processus et qu'il permet d'améliorer les performances. Nous conduisons nos expériences sur des problèmes industriels de grande taille (plus de 8 Millions d'inconnues) et utilisons une version hors-mémoire d'un code multifrontal creux appelé MUMPS (solveur multifrontal parallèle). Dans la deuxième partie de ce travail nous nous intéressons au cas de seconds membres creux multiples. Ce problème apparaît dans des applications en electromagnétisme et en assimilation de données et résulte du besoin de calculer l'espace propre d'une matrice fortement déficiente, du calcul d'éléments de l'inverse de la matrice associée aux équations normales pour les moindres carrés linéaires ou encore du traitement de matrices fortement réductibles en programmation linéaire. Nous décrivons un algorithme efficace de réduction du volume d'Entrées/Sorties sur le disque lors d'une résolution hors-mémoire. Plus généralement nous montrons comment le caractère creux des seconds -membres peut être exploité pour réduire le nombre d'opérations et le nombre d'accès à la mémoire lors de l'étape de résolution. Le travail présenté dans cette thèse a été partiellement financé par le projet SOLSTICE de l'ANR (ANR-06-CIS6-010)
We consider the solution of very large systems of linear equations with direct multifrontal methods. In this context the size of the factors is an important limitation for the use of sparse direct solvers. We will thus assume that the factors have been written on the local disks of our target multiprocessor machine during parallel factorization. Our main focus is the study and the design of efficient approaches for the forward and backward substitution phases after a sparse multifrontal factorization. These phases involve sparse triangular solution and have often been neglected in previous works on sparse direct factorization. In many applications, however, the time for the solution can be the main bottleneck for the performance. This thesis consists of two parts. The focus of the first part is on optimizing the out-of-core performance of the solution phase. The focus of the second part is to further improve the performance by exploiting the sparsity of the right-hand side vectors. In the first part, we describe and compare two approaches to access data from the hard disk. We then show that in a parallel environment the task scheduling can strongly influence the performance. We prove that a constraint ordering of the tasks is possible; it does not introduce any deadlock and it improves the performance. Experiments on large real test problems (more than 8 million unknowns) using an out-of-core version of a sparse multifrontal code called MUMPS (MUltifrontal Massively Parallel Solver) are used to analyse the behaviour of our algorithms. In the second part, we are interested in applications with sparse multiple right-hand sides, particularly those with single nonzero entries. The motivating applications arise in electromagnetism and data assimilation. In such applications, we need either to compute the null space of a highly rank deficient matrix or to compute entries in the inverse of a matrix associated with the normal equations of linear least-squares problems. We cast both of these problems as linear systems with multiple right-hand side vectors, each containing a single nonzero entry. We describe, implement and comment on efficient algorithms to reduce the input-output cost during an outof- core execution. We show how the sparsity of the right-hand side can be exploited to limit both the number of operations and the amount of data accessed. The work presented in this thesis has been partially supported by SOLSTICE ANR project (ANR-06-CIS6-010)
4

Juganaru, Mihaela. "Equilibrage et régulation de charge dans les machines parallèles à mémoire distribuée." Phd thesis, Ecole Nationale Supérieure des Mines de Saint-Etienne, 1999. http://tel.archives-ouvertes.fr/tel-00822691.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La résolution du problème d'allocation de charge représente un enjeu important dans l'exploitation des machines parallèles. Nous faisons d'abord une étude bibliographique de ce problème dans le cadre des architectures à mémoire distribuée en mettant l'accent sur l'allocation dynamique, plus précisément sur l'équilibrage et la régulation de charges régulières. Une stratégie originale de régulation basée sur un calcul de préfixe généralisé est proposée. Elle s'avère à la fois correcte, exacte et indépendante du réseau d'interconnexion de processeurs. Un noyau de régulation de charge basé sur cette stratégie est développé. Nous poursuivons ensuite avec une analyse de son temps total d'exécution. Nous trouvons qu'une loi de probabilité de Gumbel modélise le temps maximal d'exécution. A partir de ce résultat nous inférons des politiques d'initiation et de décision pour la mise en oeuvre de là stratégie proposée. L'algorithme de régulation ainsi obtenu est donc efficace. Une application de simulation des phénomènes mécaniques, déformation-recristallisation à chaud des agrégats polycristallins, est développée. Pour cette application dynamique nous utilisons le noyau de régulation de charge avec les politiques d'initiation et décision proposés. L'algorithme complet s'avère en pratique correct, stable et efficace.
5

Lemer, Cathy. "Représentations langagières des nombres dans la résolution de calculs mentaux complexes: une approche par la mémoire à court-terme verbale." Doctoral thesis, Universite Libre de Bruxelles, 2000. http://hdl.handle.net/2013/ULB-DIPOT:oai:dipot.ulb.ac.be:2013/211747.

Full text
APA, Harvard, Vancouver, ISO, and other styles
6

Fournier, Catherine (1970. "Role des canaux potassium dépendant du calcium sensibles à l'apamine dans les processus mnésiques." Aix-Marseille 1, 1999. http://www.theses.fr/1999AIX11051.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Le blocage pharmacologique des canaux skapa par l'apamine, qui sur un plan electrophysiologique induit une diminution de la post-hyperpolarisation (ahp) lente, entraine au niveau comportemental, une action facilitatrice sur un type de memoire mis en jeu lors d'une epreuve de discrimination olfactive chez le rat, et sur des stades mnesiques precis. L'apamine injectee a la dose de 0,3 ng par voie intracerebroventriculaire n'a pas d'effet sur l'acquisition de la procedure de discrimination de deux odeurs. En contraste, l'apamine agit sur la memoire declarative, mise en jeu de facon preferentielle par un changement quotidien de paires d'odeurs. L'apamine ameliore l'acquisition et facilite la consolidation mnesique d'un test de discrimination olfactive mettant en jeu la memoire declarative. La technique d'autoradiographie quantitative permet une visualisation des sites de fixation de l'apamine iodee et par consequent des canaux skapa. Cette technique a ete employee pour montrer que, dans les conditions physiologiques, les canaux skapa jouent un role dans les processus mnesiques. La densite de canaux skapa diminue dans l'hippocampe et l'habenula et augmente dans le noyau accumbens lors des processus mnesiques. Une diminution de la densite de ces canaux au niveau de l'hippocampe aurait pour consequence une diminution de l'ahp et donc, une augmentation d'excitabilite cellulaire, mises en evidence chez le lapin par des enregistrements electrophysiologiques au cours des phases d'acquisition et de consolidation. L'ensemble de nos resultats montre que l'apamine facilite les phenomenes spontanes de plasticite liee a l'apprentissage. Une diminution de la densite de canaux skapa, notamment au niveau de l'hippocampe, pourrait induire une reduction de l'ahp. L'apamine potentialiserait l'effet de cette diminution de canaux skapa.
7

Reganaz, Lucas. "Etude des fluctuations de résistance dans les ReRAM : origine physique, dépendance temporelle et impact sur la fiabilité de la mémoire." Electronic Thesis or Diss., Université Grenoble Alpes, 2024. http://www.theses.fr/2024GRALT012.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Cette thèse examine le rôle central des technologies émergentes de mémoire non volatile (NVM), en mettant l'accent principalement sur la mémoire résistive à accès aléatoire (ReRAM), pour relever les défis liés à la latence de la mémoire associée au rétrécissement des composants logiques. L'exploration commence par élucider la physique fondamentale de la ReRAM et ses applications potentielles dans le calcul en mémoire et l'informatique neuromorphique.Le deuxième chapitre se penche sur les stratégies d'ingénierie des matériaux pour optimiser les performances de la ReRAM, couvrant des aspects tels que les matériaux d'électrode supérieure, les effets de dopage, et les avantages d'une pile oxyde à commutation résistive (RS) en bi-couche. Ces informations posent les bases pour des investigations ultérieures sur la fiabilité des dispositifs.Un cadre de simulation de Monte Carlo cinétique (KMC) est introduit dans le troisième chapitre, offrant un outil puissant pour sonder le comportement dynamique microscopique de la ReRAM. Ce cadre devient essentiel dans le quatrième chapitre, où la physique de la fiabilité de la ReRAM, en particulier les fluctuations de résistance, est explorée en profondeur. L'analyse révèle des mécanismes complexes régissant les fluctuations et leur impact sur des métriques telles que le standard Failing Bit Count (FBC).Dans le dernier chapitre, l'application des dispositifs ReRAM en tant que synapses dans les réseaux neuronaux artificiels (ANN) est revisitée. Des techniques de programmation et des stratégies pour atténuer l'impact des fluctuations, notamment dans la ReRAM à cellules multi-niveaux (MLC), sont discutées. La thèse se conclut en soulignant le rôle crucial de l'ingénierie des matériaux de la pile ReRAM dans la conception de synapses fiables pour les paradigmes informatiques futurs.Cette exploration approfondie contribue à faire progresser notre compréhension du potentiel de la ReRAM, offrant des éclairages sur l'optimisation des dispositifs, la fiabilité, et son application dans l'informatique neuromorphique. En regardant vers l'avenir, la recherche souligne l'importance de l'innovation continue dans l'ingénierie des matériaux ReRAM pour libérer toutes ses capacités et faciliter son intégration dans le paysage évolutif des technologies informatiques
This thesis investigates the pivotal role of emerging non-volatile memory (NVM) technologies, with a primary focus on Resistive Random-Access Memory (ReRAM), in addressing the challenges of memory latency associated with the shrinking of logic components. The exploration begins by elucidating the fundamental physics of ReRAM and its potential applications in in-memory and neuromorphic computing.The second chapter delves into material engineering strategies to optimize ReRAM performance, covering aspects such as top electrode materials, doping effects, and the benefits of a bi-layer resistive switching (RS) oxide stack. These insights provide a foundation for subsequent investigations into device reliability.A Kinetic Monte Carlo (KMC) simulation framework is introduced in the third chapter, offering a powerful tool for probing the microscopic dynamic behavior of ReRAM. This framework becomes instrumental in the fourth chapter, where the physics of ReRAM reliability, specifically resistance fluctuations, is explored in depth. The analysis reveals intricate mechanisms governing fluctuations and their impact on metrics like the standard Failing Bit Count (FBC).In the final chapter, the application of ReRAM devices as synapses in artificial neural networks (ANNs) is revisited. Programming techniques and strategies to mitigate the impact of fluctuations, particularly in multi-level cell (MLC) ReRAM, are discussed. The thesis concludes by emphasizing the crucial role of ReRAM material stack engineering in designing reliable synapses for future computing paradigms.This comprehensive exploration contributes to advancing our understanding of ReRAM's potential, offering insights into device optimization, reliability, and its application in neuromorphic computing. Looking forward, the research underscores the significance of continued innovation in ReRAM material engineering to unlock its full capabilities and facilitate its integration into the evolving landscape of computing technologies
8

Vaumourin, Gregory. "Gestion hétérogène des données dans les hiérarchies mémoires pour l’optimisation énergétique des architectures multi-coeurs." Thesis, Bordeaux, 2016. http://www.theses.fr/2016BORD0173/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les problématiques de consommation dans la hiérarchie mémoire sont très présentes dans les architectures actuelles que ce soit pour les systèmes embarqués limités par leurs batteries ou pour les supercalculateurs limités par leurs enveloppes thermiques. Introduire une information de classification dans le système mémoire permet une gestion hétérogène, adaptée à chaque type particulier de données. Nous nous sommes intéressé dans cette thèse plus précisément aux données en lecture seule et étudions les possibilités d’une gestion spécifique dans la hiérarchie mémoire à travers un codesign compilation/architecture. Cela permet d’ouvrir de nouveaux potentiels en terme de localité des données, passage à l’échelle des architectures ou design des mémoires. Evaluée par simulation sur une architecture multi-coeurs, la solution mise en oeuvre permet des gains significatifs en terme de réduction de la consommation d’énergie à performance constante
The energy consumption of the memory system in modern architectures is a major issue for embedded system limited by their battery or supercalculators limited by their Thermal Design Power. Using a classification information in the memory system allows a heterogeneous management of data, more specific to each kind of data. During this thesis, we focused on the specific management of read-only data into the memory system through a compilation/architecture codesign. It allows to explore new potentials in terms of data locality, scalability of the system or cache designs. Evaluated by simulation with multi-core architecture, the proposed solution others significant energy consumption reduction while keeping the performance stable
9

Monnet, Sébastien. "Gestion des données dans les grilles de calcul : support pour la tolérance aux fautes et la cohérence des données." Phd thesis, Université Rennes 1, 2006. http://tel.archives-ouvertes.fr/tel-00411447.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les applications scientifiques d'aujourd'hui, telles les simulations de grands phénomènes naturels, requièrent une grande puissance de calcul ainsi qu'une importante capacité de stockage. Les grilles de calcul apparaissent comme une solution permettant d'atteindre cette puissance par la mise en commun de ressources de différentes organisations. Ces architectures présentent en revanche des caractéristiques rendant leur programmation complexe: elles sont dynamiques, hétérogènes, réparties à grande échelle. Cette thèse s'intéresse aux problématiques liées à la conception d'un service de partage de données pour les grilles de calcul. L'objectif est de permettre un accès transparent aux données, en automatisant la localisation, le transfert, la gestion de la persistance et de la cohérence des données partagées. Nous nous sommes plus particulièrement concentrés sur la gestion de la cohérence et de la persistance des données en environnement dynamique. Dans un tel contexte, assurer la persistance nécessite la mise en place de mécanismes de tolérance aux fautes. Nous proposons une approche pour gérer conjointement ces deux aspects via une architecture logicielle multiprotocole permettant de coupler différents protocoles de cohérence avec différents mécanismes de tolérance aux fautes. Nous proposons une conception hiérarchique de cette architecture, adaptée à la topologie réseau des grilles de calcul. Ces contributions ont été mises en oeuvre au sein du service de partage de données pour grilles JUXMEM. Les expérimentations menées sur la grille expérimentale Grid'5000 montrent que notre conception hiérarchique permet d'améliorer les performances des accès aux données partagées.
10

Goglin, Brice. "Réseaux rapides et stockage distribué dans les grappes de calculateurs : propositions pour une interaction efficace." Lyon, École normale supérieure (sciences), 2005. http://www.theses.fr/2005ENSL0328.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
L'objectif de ce travail est d'étudier l'exploitation des réseaux haute performance des grappes dans le cadre du stockage distribué. Les applications parallèles s'exécutant sur les grappes nécessitent à la fois des communications performantes entre les différents noeuds et des accès efficaces au système de stockage. Les travaux menés sur les technologies réseau ont abouti à la conception d'architectures dédiées aux grappes qui permettent des communications très rapides entre les noeuds. Les travaux visant à obtenir un stockage distribué efficace dans les grappes se sont pour leur part principalement focalisés sur des mécanismes de parallélisation pour augmenter la charge de travail supportée par le (ou les) serveur. Nous proposons dans ce travail d'améliorer les performances du stockage distribué dans les grappes en utilisant au mieux le réseau haute performance sous-jacent pour accéder au stockage distant. La question générale que nous soulevons est~: est-ce que les réseaux rapides des grappes sont adaptés à un accès transparent, efficace et performant au stockage distant ? Nous montrons que les besoins du stockage sont très différents de ceux du calcul parallèle. Les réseaux des grappes ont été conçus pour optimiser les communications entre les différents noeuds d'une application parallèle. Nous étudions leur utilisation dans le cadre, très différent, du stockage dans les grappes, qui s'appuie généralement sur un modèle client/serveur d'accès aux fichiers distants (par exemple NFS, PVFS ou Lustre). Une étude expérimentale reposant sur l'utilisation de GM, l'interface de programmation du réseau rapide Myrinet, dans le contexte du stockage distribué révèle différents freins. Tout d'abord, l'utilisation mémoire particulière dans les couches système d'accès au stockage s'intègre difficilement dans l'habituelle gestion mémoire des réseaux rapides. Ensuite, les modèles client-serveur utilisés dans le stockage distribué présentent des besoins spécifiques pour la gestion des messages et des événements réseau, besoins non couverts par les interfaces actuelles. Nous proposons différentes solutions pour résoudre, au niveau du système de fichiers les problèmes liés au contrôle du réseau mais montrons qu'il est nécessaire de modifier l'interface de programmation réseau et le système d'explotation pour venir à bout des difficultés liées au transfert de données. Nous détaillons des propositions à mettre en oeuvre dans les interfaces de programmation du réseau pour faciliter leur utilisation dans le cadre du stockage. L'intégration dans une nouvelle interface de programmation, Myrinet/MX, d'une gestion souple des transferts de données est présentée. Les premiers résultats montrent que son utilisation dans le cadre du stockage distribué, mais aussi dans d'autres applications, se révèle aisée et efficace
This work aims at studying the exploitation of high-speed networks of clusters for distributed storage. Parallel applications running on clusters require both high-performance communications between nodes and efficient access to the storage system. Many studies on network technologies led to the design of dedicated architectures for clusters with very fast communications between computing nodes. Efficient distributed storage in clusters have been essentially developed by adding parallelization mechanisms so that the server(s) may sustain an increased workload. In this work, we propose to improve the performance of distributed storage systems in clusters by efficiently using the underlying high-performance network to access distant storage systems. The main question we are addressing is: do high-speed networks of clusters fit the requirements of a transparent, efficient and high-performance access to remote storage? We show that storage requirements are very different from those of parallel computation. High-speed networks of clusters were designed to optimize communications between different nodes of a parallel application. We study their utilization in a very different context, storage in clusters, where client-server models are generally used to access remote storage (for instance NFS, PVFS or Lustre). Our experimental study based on the usage of the GM programming interface of Myrinet high-speed networks for distributed storage did raised several interesting problems. Firstly, the specific memory utilization in the storage access system layers does not easily fit the traditional memory model of high-speed networks. Secondly, client-server models that are used for distributed storage have specific requirements on message control and event processing, which are not handled by existing interfaces. We propose different solutions to solve communication control problems at the file-system level. We show that a modification of the network programming interface is required. Data transfer issues need an adaptation of the operating system. We detail several propositions for network programming interfaces which make their utilization easier in the context of distributed storage. The integration of a flexible processing of data transfer in the new programming interface Myrinet/MX is finally presented. Performance evaluations show that its usage in the context of both storage and other types of applications is easy and efficient

Books on the topic "Calcul dans la mémoire":

1

Desrochers-Miron, Huguette. Imprimé dans la mémoire. Montréal: Guérin, 2010.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
2

A, Adams R. Calcul différentiel et intégral dans l'espace. Montréal, Qué: Éditions Addison-Wesley, 1988.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
3

Stanké, Alain. Des barbelés dans ma mémoire. [Sainte-Angèle-de-Monnoir, Québec]: Éditeurs réunis, 2009.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
4

Chatel, Claudine Cabay. Des pas dans ma mémoire. Montréal: Éditions Publistar, 2008.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
5

Brunschwig, Luc. La mémoire dans les poches. [Paris]: Futuropolis, 2006.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
6

Grossman, Adèle. La mémoire dans la chair. Paris: Éditions Le Manuscrit, 2007.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
7

Babusiaux, Denis. Décision d'investissement et calcul économique dans l'entreprise. Paris: Economica, 1990.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
8

Munīf, ʻAbd al-Raḥmān. Une ville dans la mémoire: Amman. Arles [France]: Actes sud, 1996.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
9

Stanké, Alain. Des barbelés dans ma mémoire: Récit. [Montréal]: Stanké, 1989.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
10

Moncomble, Gérard. Dans les griffes de Ggrok. Paris: Casterman, 2001.

Find full text
APA, Harvard, Vancouver, ISO, and other styles

Book chapters on the topic "Calcul dans la mémoire":

1

Fragonard, Marie-Madeleine. "La mémoire de Dieu." In Dieu et les dieux dans le théâtre de la Renaissance, 371–91. Turnhout: Brepols Publishers, 2006. http://dx.doi.org/10.1484/m.er-eb.4.00066.

Full text
APA, Harvard, Vancouver, ISO, and other styles
2

Menger, M. Karl, and M. Élie Cartan. "Calcul des variations dans les espaces distanciés généraux." In Selecta Mathematica, 383–85. Vienna: Springer Vienna, 2002. http://dx.doi.org/10.1007/978-3-7091-6110-4_25.

Full text
APA, Harvard, Vancouver, ISO, and other styles
3

Bourdaud, Gérard. "Le calcul symbolique dans certaines algèbres de type Sobolev." In Recent Developments in Fractals and Related Fields, 131–44. Boston: Birkhäuser Boston, 2010. http://dx.doi.org/10.1007/978-0-8176-4888-6_9.

Full text
APA, Harvard, Vancouver, ISO, and other styles
4

ELIAHU, Adi, Rotem BEN HUR, Ameer HAJ ALI, and Shahar KVATINSKY. "mMPU, une architecture polyvalente de calcul dans la mémoire basée sur memristor." In Systèmes multiprocesseurs sur puce 1, 155–69. ISTE Group, 2023. http://dx.doi.org/10.51926/iste.9021.ch6.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Ce chapitre décrit l’architecture mMPU conçue pour utiliser des nouvelles technologies de mémoire non volatile, appelées memristors, pour exécuter différentes opérations logiques directement dans la mémoire, évitant ainsi le gaspillage d’énergie associé au mouvement des données. La méthode utilisée pour l’exécution de la logique en mémoire et la conception du contrôleur de mémoire sont présentées en détail.
5

RHEINDT, Sven, Akshay SRIVATSA, Oliver LENKE, Lars NOLTE, Thomas WILD, and Andreas HERKERSDORF. "Relever le défi de la localité des données dans les MPSoC." In Systèmes multiprocesseurs sur puce 1, 115–53. ISTE Group, 2023. http://dx.doi.org/10.51926/iste.9021.ch5.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les latences d’accès aux données et les goulots d’étranglement de la bande passante représentent des facteurs limitatifs majeurs pour l’efficacité de calcul des architectures multi-cœurs et pluri-cœurs. Ce chapitre porte sur deux approches visant à garantir que les données à traiter et les entités de calcul restent limitées dans l’espace : la cohérence de cache par région et l’accélération proche-mémoire.
6

"Calcul dans une algèbre quotient." In Introduction à la résolution des systèmes polynomiaux, 27–47. Berlin, Heidelberg: Springer Berlin Heidelberg, 2007. http://dx.doi.org/10.1007/978-3-540-71647-1_2.

Full text
APA, Harvard, Vancouver, ISO, and other styles
7

Hériché Pradeau, Sandrine. "Mémoire." In Les inscriptions romanesques dans la prose arthurienne du XIIIe au XVe siècle, 127–79. Éditions universitaires de Dijon, 2020. http://dx.doi.org/10.4000/books.eud.2971.

Full text
APA, Harvard, Vancouver, ISO, and other styles
8

"Entrer dans la mémoire." In Refus global, 375–404. Les Presses de l’Université de Montréal, 2017. http://dx.doi.org/10.1515/9782760638068-015.

Full text
APA, Harvard, Vancouver, ISO, and other styles
9

Langlois, Claude. "Entre mémoire et histoire." In L’Église dans l’enseignement secondaire, 147–66. Presses universitaires de Rennes, 2022. http://dx.doi.org/10.4000/books.pur.163459.

Full text
APA, Harvard, Vancouver, ISO, and other styles
10

Stora-Sandor, Judith. "Rire dans le malheur, rire du malheur." In Rire, Mémoire, Shoah, 251. Editions de l'Éclat, 2009. http://dx.doi.org/10.3917/ecla.laute.2009.01.0251.

Full text
APA, Harvard, Vancouver, ISO, and other styles

Conference papers on the topic "Calcul dans la mémoire":

1

Arribert-Narce, Fabien. "Ekphraseis photographiques dans Mémoire de fille." In Annie Ernaux, les écritures à l'œuvre. Fabula, 2020. http://dx.doi.org/10.58282/colloques.6651.

Full text
APA, Harvard, Vancouver, ISO, and other styles
2

Parouty-David, Françoise. "Mémoire et médiation paysagère." In Paysages & valeurs : de la représentation à la simulation. Limoges: Université de Limoges, 2008. http://dx.doi.org/10.25965/as.3486.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Notre objectif est de souligner la fonction médiatrice du paysage. Nous nous appuyons sur le paysage urbain comme surface d’inscription qui fait foi des événements historiques et des idées qui y sont corrélées, vérifiables dans quelques occurrences devenues emblématiques d’un sens et d’une valeur. Nous proposons une définition simplifiée du paysage qui permette de souligner le lien qui l’unit à la mémoire, structurante pour le sujet, dans ses deux dimensions temporelle et spatiale. Nous explorons ensuite les principales modalités d’inscription de la mémoire dans le paysage qui relèvent d’opérations énonciatives distinctes, avant de terminer par une recension des fonctions qu’induisent les pratiques, convaincue que nous sommes que le sens n’est jamais donné directement mais toujours médiatisé par une pratique qui le fait exister sous des formes parfois motivées par des logiques sociales.
3

Poels, Géraldine. "La littérature dans les collections de l’INA." In Mémoire audiovisuelle de la littérature. Fabula, 2023. http://dx.doi.org/10.58282/colloques.9231.

Full text
APA, Harvard, Vancouver, ISO, and other styles
4

Cremades Cano, Isaac David. "Eau et mémoire chez Marie-Célie Agnant." In XXV Coloquio AFUE. Palabras e imaginarios del agua. Valencia: Universitat Politècnica València, 2016. http://dx.doi.org/10.4995/xxvcoloquioafue.2016.3066.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
L’île est un espace constamment évoqué par l’écrivain haïtienne Marie-Célie Agnant. Dans l’ensemble de son œuvre, les différents milieux aquatiques tels que l’océan et son immensité, la mer des Caraïbes entourant l’île ou les nombreux lagons, mais aussi les fleuves et les petites rivières, sont des éléments qui semblent cohabiter avec la même ampleur dans son pays natal ainsi que dans son imaginaire. En effet, cette omniprésence du liquide élémentaire constitue l’essence d’un langage poétique original, à partir duquel l’eau acquière une remarquable symbolique. En effet, Le livre d’Emma (2001) est parsemé de descriptions où les nuances de la couleur de l’eau de la mer, bleue dans ses profondeurs, des fois grise, orange et rouge au coucher de soleil, cachent des bribes de la mémoire collective du peuple haïtien. D’ailleurs, le fleuve vertèbre le voyage intérieur d’Emma, la mémoire de ses ancêtres africaines jaillit comme dans sa poésie (Balafres, 1994 ; Et puis parfois quelquefois… 2009) et devient l’eau de rivière qui coule sans cesse dans son œuvre romanesque et poétique. Enfin, notre corpus littéraire est composé de ces ouvrages que l’on considère de référence dans littérature francophone haïtienne contemporaine. De cette manière, nous proposons donc d’approfondir l’analyse de la richesse de ces métaphores qui lient l’eau à la mémoire - individuelle et collective -, en décrivant le parcours métaphorique évoquée à travers le personnage d’Emma, dans sa dimension identitaire et féminine.DOI: http://dx.doi.org/10.4995/XXVColloqueAFUE.2016.3066
5

Vaugeois, Dominique. "« Faire son cinéma » : la citation audiovisuelle dans le texte critique." In Mémoire audiovisuelle de la littérature. Fabula, 2023. http://dx.doi.org/10.58282/colloques.9165.

Full text
APA, Harvard, Vancouver, ISO, and other styles
6

Labaune, Christophe. "« L’écriture n’est jamais son propre miroir » : la littérature dans les archives audiovisuelles du Collège de France." In Mémoire audiovisuelle de la littérature. Fabula, 2023. http://dx.doi.org/10.58282/colloques.9223.

Full text
APA, Harvard, Vancouver, ISO, and other styles
7

Sermain, Jean-Paul. "Les fins intermédiaires : paradoxe, interprétation, mémoire, dialogue." In Les fins intermédiaires dans les fictions narratives des XVIIe et XVIIIe siècles. Fabula, 2019. http://dx.doi.org/10.58282/colloques.6446.

Full text
APA, Harvard, Vancouver, ISO, and other styles
8

Macoir, J., and M. Fossard. "Mémoire procédurale et processus cognitifs : application de règles en morphologie, syntaxe et calcul arithmétique." In Congrès Mondial de Linguistique Française 2008. Les Ulis, France: EDP Sciences, 2008. http://dx.doi.org/10.1051/cmlf08011.

Full text
APA, Harvard, Vancouver, ISO, and other styles
9

Soulat, Olivier. "Analyse des outils de calcul actuels dans le domaine maritime." In Journées Nationales Génie Côtier - Génie Civil. Editions Paralia, 2004. http://dx.doi.org/10.5150/jngcgc.2004.070-s.

Full text
APA, Harvard, Vancouver, ISO, and other styles
10

Havercroft, Barbara. "(Auto)citation et initiation sexuelle dans Mémoire de fille d’Annie Ernaux." In Annie Ernaux, les écritures à l'œuvre. Fabula, 2020. http://dx.doi.org/10.58282/colloques.6640.

Full text
APA, Harvard, Vancouver, ISO, and other styles

Reports on the topic "Calcul dans la mémoire":

1

Roy, Réjean, Guillaume Macaux, and Lyse Langlois. Mémoire de l'OBVIA présenté dans le cadre de la SQRI. Observatoire international sur les impacts sociétaux de l’intelligence artificielle et du numérique, May 2021. http://dx.doi.org/10.61737/zrov7394.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
En vue de l’élaboration de la Stratégie québécoise de la recherche et de l’innovation (SQRI) 2022, le Ministère de l’Économie et de l’Innovation a lancé une consultation avec la communauté scientifique, les organismes de recherche et d’innovation, les entreprises et regroupements d’entreprises, les organismes de développement socio-économique et les sociétés de financement de l’innovation afin d’identifier les meilleures pratiques, les solutions novatrices et les avenues les plus porteuses, pour favoriser la création de richesse au Québec à partir des activités de recherche et d’innovation. Dans le cadre de l’appel à mémoire, l’Observatoire international sur les impacts sociétaux de l’IA et du numérique (OBVIA) a produit et déposé un mémoire visant à démontrer que le Québec ne réussira à tirer pleinement profit des investissements massifs qu’il réalise pour acquérir et implanter de nouvelles technologies comme l’IA qu’à condition de porter une très forte attention aux enjeux sociaux, politiques, économiques et culturels soulevés par la montée de ces outils et s’il s’assure d’élaborer et de déployer des innovations non techniques, comme des innovations managériales ou sociales, pour accompagner les innovations techniques. Le mémoire présente aussi les actions de l’OBVIA pour produire de nouvelles connaissances interdisciplinaires sur les impacts sociétaux de l’IA et du numérique en soutien de l’écosystème québécois et propose sept recommandations d’interventions pour le gouvernement du Québec dans les prochaines années.
2

Radonić, Ljiljana. L’usage de la Shoah dans la mémoire des crimes du XXe siècle en Europe de l’est. Verlag der Österreichischen Akademie der Wissenschaften, January 2023. http://dx.doi.org/10.1553/0x003dfcbb.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Beaucoup a été écrit sur les musées et les mémoriaux de la Shoah. Ljiljana Radonić s’intéresse dans ce texte[1] à la manière dont la Shoah est exposée dans les musées nationaux (en particulier en Europe centrale et orientale) pourtant consacrés à d’autres événements tragiques. Mais pourquoi ? Il ne s’agit pas tant de réparer une omission que d’évoquer la souffrance juive comme un modèle. Dans bien des cas, le message à comprendre : « Nos » victimes ont souffert « comme les Juifs ».
3

Pédarros, Élie, Jeremy Allouche, Matiwos Bekele Oma, Priscilla Duboz, Amadou Hamath Diallo, Habtemariam Kassa, Chloé Laloi, et al. La Grande Muraille Verte en tant qu’imaginaire socio-technique. Institute of Development Studies, April 2024. http://dx.doi.org/10.19088/ids.2024.018.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Le projet de la Grande Muraille Verte (GMV), lancé en 2007 par l’Union Africaine, est l’un des plus importants projets de transformation verte de l’Afrique. D’un mouvement environnemental panafricain à une mosaïque de modes de gestion et de mise en œuvre du projet à l’échelle locale en passant par son financement considérable de la part de la communauté internationale, la GMV est désormais considérée comme un « mégaprojet » étudié principalement selon les lignes de l’écologie politique et des études critiques sur le développement. Cependant, les nombreuses dissonances de perception entre les différents acteurs de la GMV à différentes échelles nous conduisent à proposer de considérer la GMV comme un imaginaire socio-technique, un outil permettant « l’élaboration de l’avenir ». Les débats conceptuels autour de la notion de « futur » permettent ainsi d’interroger la capacité de ce projet à intégrer des pratiques endogènes qui s’inscrivent dans une diversité de récits de mémoire environnementale collectivement construits. Considérer la GMV comme un imaginaire sociotechnique implique également de questionner le caractère panafricain de ce projet et de tenter de comprendre comment son expansion actuelle est effectivement négociée et réalisée.
4

Michaud, Pierre-Carl. Combler l’écart de niveau de vie entre le Québec et ses principaux partenaires. CIRANO, September 2023. http://dx.doi.org/10.54932/bxuv9805.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Au-delà des écarts avec les partenaires, la motivation première pour le Québec de faire mieux semble être de de financer la hausse des services publics dans les années à venir. Il demeure que la croissance du PIB per capita doit s’accélérer si on veut suivre les dépenses de plusieurs missions de l’état comme la santé et l’éducation, mais aussi le maintien des infrastructures existantes. Les deux premières recommandations portent sur le régime fiscal. Le Québec prélève beaucoup. Il a fait des choix qui l’amènent à avoir une fiscalité qui pèse lourd. L'auteur ne remets pas ce niveau en question. Mais étant donné ce choix, le Québec doit être encore plus vigilant que ses partenaires afin d’éviter les distorsions causées par des modes d’imposition qui freinent davantage la croissance économique. Les deux recommandations, un redosage vers les taxes à la consommation et un examen rigoureux des dépenses fiscales, sont en symbiose avec les recommandations que nous avions faite, dans le cadre de la commission d’examen de la fiscalité québécoise en 2015. La troisième recommandation est de ne pas succomber aux pressions des groupes d’intérêt voulant que le Québec émule le reste du Canada en termes d’immigration. Au-delà des enjeux linguistiques et culturels, que l'auteur considère importants, l’évidence démontre qu’il y a une déconnexion réelle entre immigration et niveau de vie. En fin de compte, l'auteur croit que le gouvernement doit, en priorité, ré-évaluer ce qu’il fait déjà avant de proposer de nouvelles mesures ou politiques économiques. Même si la tentation, au niveau politique du moins, est de montrer qu’on agit en mettant en place de nouvelles initiatives, les pistes de solutions énoncées dans ce mémoire consistent plutôt à faire mieux avec ce qu’on fait déjà.
5

Dolby, G. Palynological analysis of Carboniferous outcrop and corehole samples from the 1993–1995 Magdalen Basin NATMAP Project, with updated data files, locality data, and lists of taxa identified, Prince Edward Island, Nova Scotia, New Brunswick, and Quebec. Natural Resources Canada/CMSS/Information Management, 2024. http://dx.doi.org/10.4095/pcqvf1214e.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Le projet NATMAP du bassin de la Madeleine était un effort de coopération et de collaboration visant à aborder l'histoire géologique de la fin du Paléozoïque et le potentiel de ressources de l'ouest du bassin des Maritimes. Ce bassin se trouve sous une grande partie du golfe du Saint-Laurent et peut être étudié à terre dans certaines parties de cinq provinces de l'est du Canada. Environ trente participants, représentant les services géoscientifiques régionaux et nationaux du gouvernement, des universités et du secteur privé, ont entrepris des études multidisciplinaires des parties terrestres du bassin entre 1993 et ​​1995. Des études stratigraphiques de ce vaste bassin sédimentaire ont soutenu cet effort collectif. De telles études ont été historiquement étayées par la paléontologie des invertébrés, qui permet de situer les roches dans une époque géologique relative. Comme les fossiles utilisés plus traditionnellement sont largement indisponibles dans un bassin dominé par des roches non marines, la palynologie, en particulier l'étude des spores et du pollen, a fourni un outil idéal adapté à l'étude des roches terrestres. Graham Dolby, consultant et l'un des deux seuls spécialistes en palynologie du Carbonifère au Canada à cette époque, a apporté un soutien fondamental aux études tout au long du projet du Bassin de la Madeleine. Les matériaux analysés provenaient en grande partie d'affleurements rocheux de la Nouvelle-Écosse et du sud-est du Nouveau-Brunswick, où se concentraient les activités du projet. La palynologie de certains puits d'exploration forés en Nouvelle-Écosse, à l'Île-du-Prince-Édouard et au Nouveau-Brunswick, ainsi que de plusieurs puits d'hydrocarbures profonds forés au large dans le golfe du Saint-Laurent, a également été analysée. Le but de ce fichier ouvert à plusieurs composants est de rendre publiques les contributions NATMAP de Dolby. Les données palynologiques présentées dans ce dossier ouvert sont aussi précieuses aujourd'hui qu'elles l'étaient dans les années 1990, mais au cours des trente années qui ont suivi, des améliorations significatives dans la compréhension de la distribution du pollen et dans l'application à la stratigraphie du bassin des Maritimes ont été réalisées. Dans la présente version, Dolby a mis à jour les implications stratigraphiques qui peuvent être tirées de ses analyses antérieures des échantillons NATMAP pour refléter des zonages plus actuels. Les données palynologiques mises à jour ont été appliquées par Atkinson et al. (2020), dans leur évaluation des ressources pétrolières du bassin des Maritimes, dans le cadre du programme de projets de conservation marine. Pendant que le projet NATMAP du bassin de la Madeleine était opérationnel, les données palynologiques et l'évaluation de la position biostratigraphique ont été renvoyées au projet en fonction uniquement de l'identification de l'échantillon ou du nom du puits, car les emplacements des échantillons soumis étaient bien connus des géologues participants. Pour remédier à ce manque de données de localisation, les données sommaires, y compris la plupart des emplacements d'échantillonnage ainsi que les listes de taxons récupérés, ont été extraites de BASIN, une base de données d'archives majeure de la Commission géologique du Canada – Atlantique. Ces données sont fournies sous forme de feuille de calcul et sont accessibles dans BASIN ici : https://basin.marine-geo.canada.ca/wells/natmap_index_e.php
6

Vaillancourt, François, and Michel Magnan. Le partage du financement des services de l’agglomération de Montréal en 2020: État des lieux, analyse et éléments de comparaison. CIRANO, August 2022. http://dx.doi.org/10.54932/cvub5177.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Ce texte se divise en quatre parties. La première présente l’agglomération de Montréal, ses dépenses et ses mécanismes de financement. L’agglomération crée en 2006 couvre le territoire administratif de l’île de Montréal. Ce territoire englobe la Ville de Montréal (qui regroupe 88% de la population) et 15 municipalités de banlieue. En 2020, les principales dépenses de l’agglomération comprennent les services policiers (28%), le transport en commun (25%), le service d’incendie (16%) et le service d’eau (10%). Son financement se fait par quotes-parts. Ces dernières reflètent à plus de 90 % la répartition de la richesse foncière entre les municipalités membres. Les municipalités de banlieue s’exprimant par leur association jugent leur contribution au financement des dépenses d’agglomération trop élevée. La deuxième partie du rapport présente les grands principes pouvant être utilisés pour choisir le mode de financement des services publics. On y examine comment les services de l’agglomération génèrent plus ou moins d’externalités et correspondent plus ou moins à la notion de bien collectif. La troisième partie présente des exemples de formule de partage des coûts entre municipalités pour cinq services publics : police, incendie, transport en commun, matières résiduelles et eau. La dernière partie indique que l’insatisfaction des banlieues ne s’explique pas par une détérioration de leur situation à travers le temps. L’utilisation de la population dans le calcul des quotes-parts ne constitue pas une pratique plus équitable que les valeurs foncières, mais peut représenter un compromis advenant un nouveau partage de la charge fiscale entre les municipalités.
7

Dufour, Quentin, David Pontille, and Didier Torny. Contracter à l’heure de la publication en accès ouvert. Une analyse systématique des accords transformants. Ministère de l'enseignement supérieur et de la recherche, April 2021. http://dx.doi.org/10.52949/2.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Cette étude porte sur une des innovations contemporaines liées à l’économie de la publication scientifique : les accords dits transformants, un objet relativement circonscrit au sein des relations entre consortiums de bibliothèques et éditeurs scientifiques, et temporellement situé entre 2015 et 2020. Ce type d’accords a pour objectif affiché d’organiser la transition du modèle traditionnel de l’abonnement à des revues (souvent proposées par regroupements thématiques ou collections) vers celui de l’accès ouvert en opérant une réaffectation des budgets qui y sont consacrés. Notre travail d’analyse sociologique constitue une première étude systématique de cet objet, fondée sur la recension de 197 accords. Le corpus ainsi constitué inclut des accords caractérisés par la coprésence d’une composante d’abonnement et d’une composante de publication en accès ouvert, même minimale (« jetons » de publication offerts, réduction sur les APC...). En conséquence, ont été exclus de l’analyse les accords portant uniquement sur du financement centralisé de publication en accès ouvert, que ce soit avec des éditeurs ne proposant que des revues avec paiement par l’auteur (PLOS, Frontiers, MDPI...) ou des éditeurs dont une partie du catalogue est constitué de revues en accès ouvert. L’accord le plus ancien de notre corpus a été signé en 2010, les plus récents en 2020 – les accords ne commençant qu’en 2021, même annoncés au cours de l’étude, n’ont pas été retenus. Plusieurs résultats se dégagent de notre analyse. Tout d’abord, on note une grande diversité des acteurs impliqués avec 22 pays et 39 éditeurs, même si certains consortiums (Pays-Bas, Suède, Autriche, Allemagne) et éditeurs (CUP, Elsevier, RSC, Springer) en ont signé beaucoup plus que d’autres. Ensuite, la durée des accords, comprise entre une et six années, révèle une distribution très inégalitaire, avec plus de la moitié des accords (103) signés pour 3 ans, ainsi qu’une faible proportion pour 4 ans ou plus (22 accords). Enfin, en dépit d’appels répétés à la transparence, moins de la moitié des accords (96) ont un texte accessible au moment de cette étude, sans qu’on puisse observer une tendance récente à une plus grande disponibilité. L’analyse montre également des degrés d’ouverture très variables, allant d’une simple information sur le répertoire ESAC en passant par la mise à disposition d’un format annotable jusqu’à l’attribution d’un DOI et d’une licence de réutilisation (CC-BY), en incluant le détail des sommes monétaires. Parmi les 96 accords disponibles, dont 47 signés en 2020, 62 ont fait l’objet d’une analyse en profondeur. C’est à notre connaissance la première analyse à cette échelle, sur un type de matériel non seulement inédit, mais qui était auparavant soumis à des clauses de confidentialité. Fondée sur une lecture minutieuse, l’étude décrit de manière fine leurs propriétés, depuis la matérialité du document jusqu’aux formules financières, en passant par leur morphologie et l’ensemble des droits et devoirs des parties. Les contenus des accords sont donc analysés comme une collection dont nous cherchons à déterminer les points communs et les variations, à travers des codages explicites sur certaines de leurs caractéristiques. L’étude pointe également des incertitudes, et notamment leur caractère « transitionnel », qui demeure fortement discuté. D’un point de vue morphologique, les accords montrent une grande diversité en matière de taille (de 7 à 488 pages) et de structure. Néanmoins, par définition, ils articulent tous deux objets essentiels : d’une part, les conditions de réalisation d’une lecture d’articles de revues, sous forme d’abonnement, mêlant des préoccupations d’accès et de sécurité ; d’autre part, les modalités de publication en accès ouvert, articulant la gestion d’un nouveau type de workflow à toute une série d’options possibles. Parmi ces options, mentionnons notamment le périmètre des revues considérées (hybrides et/ou accès ouvert), les licences disponibles, le degré d’obligation de cette publication, les auteurs éligibles ou le volume d’articles publiables. L’un des résultats les plus importants de cette analyse approfondie est la mise au jour d’un découplage presque complet, au sein même des accords, entre l’objet abonnement et l’objet publication. Bien entendu, l’abonnement est systématiquement configuré dans un monde fermé, soumis à paiement qui déclenche des séries d’identification des circulations légitimes tant du contenu informationnel que des usagers. Il insiste notamment sur les interdictions de réutilisation ou même de copie des articles scientifiques. À l’opposé, la publication en accès ouvert est attachée à un monde régi par l’accès gratuit au contenu, ce qui induit des préoccupations de gestion du workflow et des modalités d’accessibilité. De plus, les différents éléments constitutifs de ces objets contractuels ne sont pas couplés : d’un côté, les lecteurs sont constitués de l’ensemble des membres des institutions abonnées, de l’autre, seuls les auteurs correspondants (« corresponding authors ») sont concernés ; les listes de revues accessibles à la lecture et celles réservées à la publication en accès ouvert sont le plus souvent distinctes ; les workflows ont des objectifs et des organisations matérielles totalement différentes, etc. L’articulation entre les deux objets contractuels relève uniquement d’une formule de distribution financière qui, outre des combinaisons particulières entre l’un et l’autre, permet d’attribuer des étiquettes distinctes aux accords (offset agreement, publish & read, read & publish, read & free articles, read & discount). Au-delà de cette distribution, l’étude des arrangements financiers montre une gamme de dispositions allant d’une prévisibilité budgétaire totale, donc identique aux accords d’abonnement antérieurs, à une incertitude sur le volume de publication ou sur le montant définitif des sommes échangées. Les modalités concrètes de calcul des montants associés à la publication en accès ouvert sont relativement variées. S’il existe effectivement des formules récurrentes (volume d’articles multiplié par un prix individuel, reprise de la moyenne des sommes totales d’APC des années précédentes...), le calcul des sommes en jeu est toujours le résultat d’une négociation singulière entre un consortium et un éditeur scientifique, et aboutit parfois à des formules originales et complexes. À ce titre, l’espace des possibles en matière de formules financières n’est jamais totalement clos. Par ailleurs, la volonté des consortiums d’opérer une « transformation » de leurs accords vers la publication à coût constant renvoie à des définitions diversifiées du « coût » (inclusion ou non des dépenses d’APC préexistantes) et de la constance (admission ou pas d’une « inflation » à 2 ou 3%). De plus, nous n’avons observé aucune disposition contractuelle permettant d’anticiper les sommes en jeu au-delà de l’horizon temporel de l’accord courant. La grande diversité des accords provient d’une part des conditions initiales des relations entre consortiums et éditeurs scientifiques – les sommes dépensées en abonnement étant le point de départ des nouveaux accords –, d’autre part des objectifs de chaque partie. Même si cette étude excluait volontairement les négociations, les accords portent des traces de ces objectifs. Ainsi, de nombreux accords sont de nature explicitement expérimentale, quand certains visent un contrôle budgétaire strict, ou d’autres ambitionnent, dans la période plus récente, la publication du plus grand nombre possible d’articles en accès ouvert. C’est dans ce dernier cas qu’on touche à l’ambiguïté des attentes générales sur les accords transformants. En effet, pour les consortiums, la dimension « transformante » consiste essentiellement à transférer les sommes traditionnellement allouées à l’abonnement vers la publication en accès ouvert. Mais l’objectif n’est jamais de transformer le modèle économique des revues, c'est-à-dire de faire basculer des revues sous abonnement ou hybrides en revues entièrement en accès ouvert. D’ailleurs, aucune clause ne vise une telle fin – à l’exception du modèle d’accord proposé par l’éditeur ACM. Du côté des éditeurs, et notamment de Springer, le caractère cumulatif des accords nationaux passés vise à projeter un monde de la publication où l’accès ouvert devient de fait quantitativement très dominant, sans pour autant modifier de manière pérenne le modèle économique de leurs revues. Notre étude montre que les accords transformants actuels ne permettent pas d’assurer de manière durable une transition de l’économie de la publication vers l’accès ouvert, dans la mesure où ils n’offrent pas de garantie sur le contrôle des dépenses ni sur la pérennité de l’ouverture des contenus. L’avenir des relations entre consortium et éditeur demeure largement indéterminé.Cette étude porte sur une des innovations contemporaines liées à l’économie de la publication scientifique : les accords dits transformants, un objet relativement circonscrit au sein des relations entre consortiums de bibliothèques et éditeurs scientifiques, et temporellement situé entre 2015 et 2020. Ce type d’accords a pour objectif affiché d’organiser la transition du modèle traditionnel de l’abonnement à des revues (souvent proposées par regroupements thématiques ou collections) vers celui de l’accès ouvert en opérant une réaffectation des budgets qui y sont consacrés. Notre travail d’analyse sociologique constitue une première étude systématique de cet objet, fondée sur la recension de 197 accords. Le corpus ainsi constitué inclut des accords caractérisés par la coprésence d’une composante d’abonnement et d’une composante de publication en accès ouvert, même minimale (« jetons » de publication offerts, réduction sur les APC...). En conséquence, ont été exclus de l’analyse les accords portant uniquement sur du financement centralisé de publication en accès ouvert, que ce soit avec des éditeurs ne proposant que des revues avec paiement par l’auteur (PLOS, Frontiers, MDPI...) ou des éditeurs dont une partie du catalogue est constitué de revues en accès ouvert. L’accord le plus ancien de notre corpus a été signé en 2010, les plus récents en 2020 – les accords ne commençant qu’en 2021, même annoncés au cours de l’étude, n’ont pas été retenus. Plusieurs résultats se dégagent de notre analyse. Tout d’abord, on note une grande diversité des acteurs impliqués avec 22 pays et 39 éditeurs, même si certains consortiums (Pays-Bas, Suède, Autriche, Allemagne) et éditeurs (CUP, Elsevier, RSC, Springer) en ont signé beaucoup plus que d’autres. Ensuite, la durée des accords, comprise entre une et six années, révèle une distribution très inégalitaire, avec plus de la moitié des accords (103) signés pour 3 ans, ainsi qu’une faible proportion pour 4 ans ou plus (22 accords). Enfin, en dépit d’appels répétés à la transparence, moins de la moitié des accords (96) ont un texte accessible au moment de cette étude, sans qu’on puisse observer une tendance récente à une plus grande disponibilité. L’analyse montre également des degrés d’ouverture très variables, allant d’une simple information sur le répertoire ESAC en passant par la mise à disposition d’un format annotable jusqu’à l’attribution d’un DOI et d’une licence de réutilisation (CC-BY), en incluant le détail des sommes monétaires. Parmi les 96 accords disponibles, dont 47 signés en 2020, 62 ont fait l’objet d’une analyse en profondeur. C’est à notre connaissance la première analyse à cette échelle, sur un type de matériel non seulement inédit, mais qui était auparavant soumis à des clauses de confidentialité. Fondée sur une lecture minutieuse, l’étude décrit de manière fine leurs propriétés, depuis la matérialité du document jusqu’aux formules financières, en passant par leur morphologie et l’ensemble des droits et devoirs des parties. Les contenus des accords sont donc analysés comme une collection dont nous cherchons à déterminer les points communs et les variations, à travers des codages explicites sur certaines de leurs caractéristiques. L’étude pointe également des incertitudes, et notamment leur caractère « transitionnel », qui demeure fortement discuté. D’un point de vue morphologique, les accords montrent une grande diversité en matière de taille (de 7 à 488 pages) et de structure. Néanmoins, par définition, ils articulent tous deux objets essentiels : d’une part, les conditions de réalisation d’une lecture d’articles de revues, sous forme d’abonnement, mêlant des préoccupations d’accès et de sécurité ; d’autre part, les modalités de publication en accès ouvert, articulant la gestion d’un nouveau type de workflow à toute une série d’options possibles. Parmi ces options, mentionnons notamment le périmètre des revues considérées (hybrides et/ou accès ouvert), les licences disponibles, le degré d’obligation de cette publication, les auteurs éligibles ou le volume d’articles publiables. L’un des résultats les plus importants de cette analyse approfondie est la mise au jour d’un découplage presque complet, au sein même des accords, entre l’objet abonnement et l’objet publication. Bien entendu, l’abonnement est systématiquement configuré dans un monde fermé, soumis à paiement qui déclenche des séries d’identification des circulations légitimes tant du contenu informationnel que des usagers. Il insiste notamment sur les interdictions de réutilisation ou même de copie des articles scientifiques. À l’opposé, la publication en accès ouvert est attachée à un monde régi par l’accès gratuit au contenu, ce qui induit des préoccupations de gestion du workflow et des modalités d’accessibilité. De plus, les différents éléments constitutifs de ces objets contractuels ne sont pas couplés : d’un côté, les lecteurs sont constitués de l’ensemble des membres des institutions abonnées, de l’autre, seuls les auteurs correspondants (« corresponding authors ») sont concernés ; les listes de revues accessibles à la lecture et celles réservées à la publication en accès ouvert sont le plus souvent distinctes ; les workflows ont des objectifs et des organisations matérielles totalement différentes, etc. L’articulation entre les deux objets contractuels relève uniquement d’une formule de distribution financière qui, outre des combinaisons particulières entre l’un et l’autre, permet d’attribuer des étiquettes distinctes aux accords (offset agreement, publish & read, read & publish, read & free articles, read & discount). Au-delà de cette distribution, l’étude des arrangements financiers montre une gamme de dispositions allant d’une prévisibilité budgétaire totale, donc identique aux accords d’abonnement antérieurs, à une incertitude sur le volume de publication ou sur le montant définitif des sommes échangées. Les modalités concrètes de calcul des montants associés à la publication en accès ouvert sont relativement variées. S’il existe effectivement des formules récurrentes (volume d’articles multiplié par un prix individuel, reprise de la moyenne des sommes totales d’APC des années précédentes...), le calcul des sommes en jeu est toujours le résultat d’une négociation singulière entre un consortium et un éditeur scientifique, et aboutit parfois à des formules originales et complexes. À ce titre, l’espace des possibles en matière de formules financières n’est jamais totalement clos. Par ailleurs, la volonté des consortiums d’opérer une « transformation » de leurs accords vers la publication à coût constant renvoie à des définitions diversifiées du « coût » (inclusion ou non des dépenses d’APC préexistantes) et de la constance (admission ou pas d’une « inflation » à 2 ou 3%). De plus, nous n’avons observé aucune disposition contractuelle permettant d’anticiper les sommes en jeu au-delà de l’horizon temporel de l’accord courant. La grande diversité des accords provient d’une part des conditions initiales des relations entre consortiums et éditeurs scientifiques – les sommes dépensées en abonnement étant le point de départ des nouveaux accords –, d’autre part des objectifs de chaque partie. Même si cette étude excluait volontairement les négociations, les accords portent des traces de ces objectifs. Ainsi, de nombreux accords sont de nature explicitement expérimentale, quand certains visent un contrôle budgétaire strict, ou d’autres ambitionnent, dans la période plus récente, la publication du plus grand nombre possible d’articles en accès ouvert. C’est dans ce dernier cas qu’on touche à l’ambiguïté des attentes générales sur les accords transformants. En effet, pour les consortiums, la dimension « transformante » consiste essentiellement à transférer les sommes traditionnellement allouées à l’abonnement vers la publication en accès ouvert. Mais l’objectif n’est jamais de transformer le modèle économique des revues, c'est-à-dire de faire basculer des revues sous abonnement ou hybrides en revues entièrement en accès ouvert. D’ailleurs, aucune clause ne vise une telle fin – à l’exception du modèle d’accord proposé par l’éditeur ACM. Du côté des éditeurs, et notamment de Springer, le caractère cumulatif des accords nationaux passés vise à projeter un monde de la publication où l’accès ouvert devient de fait quantitativement très dominant, sans pour autant modifier de manière pérenne le modèle économique de leurs revues. Notre étude montre que les accords transformants actuels ne permettent pas d’assurer de manière durable une transition de l’économie de la publication vers l’accès ouvert, dans la mesure où ils n’offrent pas de garantie sur le contrôle des dépenses ni sur la pérennité de l’ouverture des contenus. L’avenir des relations entre consortium et éditeur demeure largement indéterminé.
8

Introduction au calcul de taille d'échantillon. Instats Inc., 2023. http://dx.doi.org/10.61700/9kdxr7y7w2qtu469.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Cette formation vous permettra d'acquérir les compétences nécessaires pour calculer la taille d'échantillon appropriée, par exemple dans le cadre d'essais cliniques. Vous apprendrez à identifier les informations requises pour effectuer le calcul, à comprendre l’impact des hypothèses de base sur les résultats, à choisir l'outil adéquat pour réaliser le calcul et à trouver des ressources d'aide si nécessaire.Vous serez familiarisé avec les logiciels PASS et G*Power pour effectuer les calculs. Des exemples et des exercices pratiques sur différentes situations (moyennes, proportions, corrélations, régression, table de contingence, etc.) seront également inclus dans la formation.
9

Introduction au calcul de taille d'échantillon. Instats Inc., 2023. http://dx.doi.org/10.61700/wybwyygv5o3z6469.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Cette formation vous permettra d'acquérir les compétences nécessaires pour calculer la taille d'échantillon appropriée, par exemple dans le cadre d'essais cliniques. Vous apprendrez à identifier les informations requises pour effectuer le calcul, à comprendre l’impact des hypothèses de base sur les résultats, à choisir l'outil adéquat pour réaliser le calcul et à trouver des ressources d'aide si nécessaire.Vous serez familiarisé avec les logiciels PASS et G*Power pour effectuer les calculs. Des exemples et des exercices pratiques sur différentes situations (moyennes, proportions, corrélations, régression, table de contingence, etc.) seront également inclus dans la formation. Pour les doctorants européens, le séminaire offre 0.5 point d'équivalence ECTS.

To the bibliography