Dissertations / Theses on the topic 'Calcul dans la mémoire'

To see the other types of publications on this topic, follow the link: Calcul dans la mémoire.

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 dissertations / theses for your research on the topic 'Calcul dans la mémoire.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Ezzadeen, Mona. "Conception d'un circuit dédié au calcul dans la mémoire à base de technologie 3D innovante." Electronic Thesis or Diss., Aix-Marseille, 2022. http://theses.univ-amu.fr.lama.univ-amu.fr/221212_EZZADEEN_955e754k888gvxorp699jljcho_TH.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Avec le développement de l'internet des objets et de l'intelligence artificielle, le "déluge de données" est une réalité, poussant au développement de systèmes de calcul efficaces énergétiquement. Dans ce contexte, en effectuant le calcul directement à l'intérieur ou à proximité des mémoires, le paradigme de l'in/near-memory-computing (I/NMC) semble être une voie prometteuse. En effet, les transferts de données entre les mémoires et les unités de calcul sont très énergivores. Cependant, les classiques mémoires Flash souffrent de problèmes de miniaturisation et ne semblent pas facilement adaptées à l'I/NMC. Ceci n'est pas le cas de nouvelles technologies mémoires émergentes comme les ReRAM. Ces dernières souffrent cependant d'une variabilité importante, et nécessitent l'utilisation d'un transistor d'accès par bit (1T1R) pour limiter les courants de fuite, dégradant ainsi leur densité. Dans cette thèse, nous nous proposons de résoudre ces deux défis. Tout d'abord, l'impact de la variabilité des ReRAM sur les opérations de lecture et de calcul en mémoire est étudié, et de nouvelles techniques de calculs booléens robustes et à faible impact surfacique sont développées. Dans le contexte des réseaux de neurones, de nouveaux accélérateurs neuromorphiques à base de ReRAM sont proposés et caractérisés, visant une bonne robustesse face à la variabilité, un bon parallélisme et une efficacité énergétique élevée. Dans un deuxième temps, pour résoudre les problèmes de densité d'intégration, une nouvelle technologie de cube mémoire 3D à base de ReRAM 1T1R est proposée, pouvant à la fois être utilisée en tant que mémoire de type NOR 3D dense qu'en tant qu'accélérateur pour l'I/NMC
With the advent of edge devices and artificial intelligence, the data deluge is a reality, making energy-efficient computing systems a must-have. Unfortunately, classical von Neumann architectures suffer from the high cost of data transfers between memories and processing units. At the same time, CMOS scaling seems more and more challenging and costly to afford, limiting the chips' performance due to power consumption issues.In this context, bringing the computation directly inside or near memories (I/NMC) seems an appealing solution. However, data-centric applications require an important amount of non-volatile storage, and modern Flash memories suffer from scaling issues and are not very suited for I/NMC. On the other hand, emerging memory technologies such as ReRAM present very appealing memory performances, good scalability, and interesting I/NMC features. However, they suffer from variability issues and from a degraded density integration if an access transistor per bitcell (1T1R) is used to limit the sneak-path currents. This thesis work aims to overcome these two challenges. First, the variability impact on read and I/NMC operations is assessed and new robust and low-overhead ReRAM-based boolean operations are proposed. In the context of neural networks, new ReRAM-based neuromorphic accelerators are developed and characterized, with an emphasis on good robustness against variability, good parallelism, and high energy efficiency. Second, to resolve the density integration issues, an ultra-dense 3D 1T1R ReRAM-based Cube and its architecture are proposed, which can be used as a 3D NOR memory as well as a low overhead and energy-efficient I/NMC accelerator
2

Valat, Sébastien. "Contribution à l'amélioration des méthodes d'optimisation de la gestion de la mémoire dans le cadre du calcul haute performance." Versailles-St Quentin en Yvelines, 2014. http://www.theses.fr/2014VERS0014.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
L'évolution des architectures des calculateurs actuels est telle que la mémoire devient un problème majeur pour les performances. L'étude décrite dans ce document montre qu'il est déjà possible d'observer des pertes importantes imputables aux mécanismes de gestion de cette dernière. Dans ce contexte, nous nous sommes intéressés aux problèmes de gestion des gros segments mémoire sur les supercalculateurs multicoeurs NUMA de type Tera 100 et Curie. Notre travail est détaillé ici en suivant trois axes principaux. Nous analysons dans un premier temps les politiques de pagination de différents systèmes d'exploitation (coloration de pages, grosses pages. . . ). Nous mettons ainsi en évidence l'existence d'interférences néfastes entre ces politiques et les décisions de placement de l'allocateur en espace utilisateur. Nous complétons donc les études cache/allocateur et cache/pagination par une analyse de l'interaction cumulée de ces composants. Nous abordons ensuite la problématique des performances d'allocation des grands segments mémoire en considérant les échanges entre le système et l'allocateur. Nous montrons ici qu'il est possible d'obtenir des gains significatifs (de l'ordre de 50% sur une grosse application) en limitant ces échanges et en structurant l'allocateur pour un support explicite des architectures NUMA. La description de nos travaux s'achève sur une étude des problèmes d'extensibilité observés au niveau des fautes de pages du noyau Linux. Nous avons ainsi proposé une extension de la sémantique d'allocation afin d'éliminer la nécessité d'effectuer les coûteux effacements mémoire des pages au niveau système
Current supercomputer architectures are subject to memory related issues. For instance we can observe slowdowns induced by memory management mechanisms and their implementation. In this context, we focus on the management of large memory segments for multi-core and NUMA supercomputers similar to Tera 100 and Curie. We discuss our work in three parts. We first study several paging policies (page coloring, huge pages. . . ) from multiple operating systems. We demonstrate an interference between those policies and layout decisions taken by userspace allocators. Such interactions can significantly reduce cache efficiency depending on the application, particularly on multi-core architectures. This study extends existing works by studying interactions between the operating system, the allocator and caches. Then, we discuss performance issues when large memory segments are allocated. We consider the interaction between the OS and userspace allocators. We show that we can significantly improve some application performances (up to 50%) by controlling the memory exchange rate with the OS and by taking care of memory topologies. We finally study page fault extensibility in current Linux kernel implementation. We observe a large impact due to page zeroing which is a security requirement. We propose an improvement on memory allocation semantic aimed at avoiding page zeroing. It shows a new interest for huge pages to improve paging scalability without changing too much kernel algorithms
3

Slavova, Tzvetomila. "Résolution triangulaire de systèmes linéaires creux de grande taille dans un contexte parallèle multifrontal et hors-mémoire." Thesis, Toulouse, INPT, 2009. http://www.theses.fr/2009INPT016H/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Nous nous intéressons à la résolution de systèmes linéaires creux de très grande taille par des méthodes directes de factorisation. Dans ce contexte, la taille de la matrice des facteurs constitue un des facteurs limitants principaux pour l'utilisation de méthodes directes de résolution. Nous supposons donc que la matrice des facteurs est de trop grande taille pour être rangée dans la mémoire principale du multiprocesseur et qu'elle a donc été écrite sur les disques locaux (hors-mémoire : OOC) d'une machine multiprocesseurs durant l'étape de factorisation. Nous nous intéressons à l'étude et au développement de techniques efficaces pour la phase de résolution après une factorization multifrontale creuse. La phase de résolution, souvent négligée dans les travaux sur les méthodes directes de résolution directe creuse, constitue alors un point critique de la performance de nombreuses applications scientifiques, souvent même plus critique que l'étape de factorisation. Cette thèse se compose de deux parties. Dans la première partie nous nous proposons des algorithmes pour améliorer la performance de la résolution hors-mémoire. Dans la deuxième partie nous pousuivons ce travail en montrant comment exploiter la nature creuse des seconds membres pour réduire le volume de données accédées en mémoire. Dans la première partie de cette thèse nous introduisons deux approches de lecture des données sur le disque dur. Nous montrons ensuite que dans un environnement parallèle le séquencement des tâches peut fortement influencer la performance. Nous prouvons qu'un ordonnancement contraint des tâches peut être introduit; qu'il n'introduit pas d'interblocage entre processus et qu'il permet d'améliorer les performances. Nous conduisons nos expériences sur des problèmes industriels de grande taille (plus de 8 Millions d'inconnues) et utilisons une version hors-mémoire d'un code multifrontal creux appelé MUMPS (solveur multifrontal parallèle). Dans la deuxième partie de ce travail nous nous intéressons au cas de seconds membres creux multiples. Ce problème apparaît dans des applications en electromagnétisme et en assimilation de données et résulte du besoin de calculer l'espace propre d'une matrice fortement déficiente, du calcul d'éléments de l'inverse de la matrice associée aux équations normales pour les moindres carrés linéaires ou encore du traitement de matrices fortement réductibles en programmation linéaire. Nous décrivons un algorithme efficace de réduction du volume d'Entrées/Sorties sur le disque lors d'une résolution hors-mémoire. Plus généralement nous montrons comment le caractère creux des seconds -membres peut être exploité pour réduire le nombre d'opérations et le nombre d'accès à la mémoire lors de l'étape de résolution. Le travail présenté dans cette thèse a été partiellement financé par le projet SOLSTICE de l'ANR (ANR-06-CIS6-010)
We consider the solution of very large systems of linear equations with direct multifrontal methods. In this context the size of the factors is an important limitation for the use of sparse direct solvers. We will thus assume that the factors have been written on the local disks of our target multiprocessor machine during parallel factorization. Our main focus is the study and the design of efficient approaches for the forward and backward substitution phases after a sparse multifrontal factorization. These phases involve sparse triangular solution and have often been neglected in previous works on sparse direct factorization. In many applications, however, the time for the solution can be the main bottleneck for the performance. This thesis consists of two parts. The focus of the first part is on optimizing the out-of-core performance of the solution phase. The focus of the second part is to further improve the performance by exploiting the sparsity of the right-hand side vectors. In the first part, we describe and compare two approaches to access data from the hard disk. We then show that in a parallel environment the task scheduling can strongly influence the performance. We prove that a constraint ordering of the tasks is possible; it does not introduce any deadlock and it improves the performance. Experiments on large real test problems (more than 8 million unknowns) using an out-of-core version of a sparse multifrontal code called MUMPS (MUltifrontal Massively Parallel Solver) are used to analyse the behaviour of our algorithms. In the second part, we are interested in applications with sparse multiple right-hand sides, particularly those with single nonzero entries. The motivating applications arise in electromagnetism and data assimilation. In such applications, we need either to compute the null space of a highly rank deficient matrix or to compute entries in the inverse of a matrix associated with the normal equations of linear least-squares problems. We cast both of these problems as linear systems with multiple right-hand side vectors, each containing a single nonzero entry. We describe, implement and comment on efficient algorithms to reduce the input-output cost during an outof- core execution. We show how the sparsity of the right-hand side can be exploited to limit both the number of operations and the amount of data accessed. The work presented in this thesis has been partially supported by SOLSTICE ANR project (ANR-06-CIS6-010)
4

Juganaru, Mihaela. "Equilibrage et régulation de charge dans les machines parallèles à mémoire distribuée." Phd thesis, Ecole Nationale Supérieure des Mines de Saint-Etienne, 1999. http://tel.archives-ouvertes.fr/tel-00822691.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La résolution du problème d'allocation de charge représente un enjeu important dans l'exploitation des machines parallèles. Nous faisons d'abord une étude bibliographique de ce problème dans le cadre des architectures à mémoire distribuée en mettant l'accent sur l'allocation dynamique, plus précisément sur l'équilibrage et la régulation de charges régulières. Une stratégie originale de régulation basée sur un calcul de préfixe généralisé est proposée. Elle s'avère à la fois correcte, exacte et indépendante du réseau d'interconnexion de processeurs. Un noyau de régulation de charge basé sur cette stratégie est développé. Nous poursuivons ensuite avec une analyse de son temps total d'exécution. Nous trouvons qu'une loi de probabilité de Gumbel modélise le temps maximal d'exécution. A partir de ce résultat nous inférons des politiques d'initiation et de décision pour la mise en oeuvre de là stratégie proposée. L'algorithme de régulation ainsi obtenu est donc efficace. Une application de simulation des phénomènes mécaniques, déformation-recristallisation à chaud des agrégats polycristallins, est développée. Pour cette application dynamique nous utilisons le noyau de régulation de charge avec les politiques d'initiation et décision proposés. L'algorithme complet s'avère en pratique correct, stable et efficace.
5

Lemer, Cathy. "Représentations langagières des nombres dans la résolution de calculs mentaux complexes: une approche par la mémoire à court-terme verbale." Doctoral thesis, Universite Libre de Bruxelles, 2000. http://hdl.handle.net/2013/ULB-DIPOT:oai:dipot.ulb.ac.be:2013/211747.

Full text
APA, Harvard, Vancouver, ISO, and other styles
6

Fournier, Catherine (1970. "Role des canaux potassium dépendant du calcium sensibles à l'apamine dans les processus mnésiques." Aix-Marseille 1, 1999. http://www.theses.fr/1999AIX11051.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Le blocage pharmacologique des canaux skapa par l'apamine, qui sur un plan electrophysiologique induit une diminution de la post-hyperpolarisation (ahp) lente, entraine au niveau comportemental, une action facilitatrice sur un type de memoire mis en jeu lors d'une epreuve de discrimination olfactive chez le rat, et sur des stades mnesiques precis. L'apamine injectee a la dose de 0,3 ng par voie intracerebroventriculaire n'a pas d'effet sur l'acquisition de la procedure de discrimination de deux odeurs. En contraste, l'apamine agit sur la memoire declarative, mise en jeu de facon preferentielle par un changement quotidien de paires d'odeurs. L'apamine ameliore l'acquisition et facilite la consolidation mnesique d'un test de discrimination olfactive mettant en jeu la memoire declarative. La technique d'autoradiographie quantitative permet une visualisation des sites de fixation de l'apamine iodee et par consequent des canaux skapa. Cette technique a ete employee pour montrer que, dans les conditions physiologiques, les canaux skapa jouent un role dans les processus mnesiques. La densite de canaux skapa diminue dans l'hippocampe et l'habenula et augmente dans le noyau accumbens lors des processus mnesiques. Une diminution de la densite de ces canaux au niveau de l'hippocampe aurait pour consequence une diminution de l'ahp et donc, une augmentation d'excitabilite cellulaire, mises en evidence chez le lapin par des enregistrements electrophysiologiques au cours des phases d'acquisition et de consolidation. L'ensemble de nos resultats montre que l'apamine facilite les phenomenes spontanes de plasticite liee a l'apprentissage. Une diminution de la densite de canaux skapa, notamment au niveau de l'hippocampe, pourrait induire une reduction de l'ahp. L'apamine potentialiserait l'effet de cette diminution de canaux skapa.
7

Reganaz, Lucas. "Etude des fluctuations de résistance dans les ReRAM : origine physique, dépendance temporelle et impact sur la fiabilité de la mémoire." Electronic Thesis or Diss., Université Grenoble Alpes, 2024. http://www.theses.fr/2024GRALT012.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Cette thèse examine le rôle central des technologies émergentes de mémoire non volatile (NVM), en mettant l'accent principalement sur la mémoire résistive à accès aléatoire (ReRAM), pour relever les défis liés à la latence de la mémoire associée au rétrécissement des composants logiques. L'exploration commence par élucider la physique fondamentale de la ReRAM et ses applications potentielles dans le calcul en mémoire et l'informatique neuromorphique.Le deuxième chapitre se penche sur les stratégies d'ingénierie des matériaux pour optimiser les performances de la ReRAM, couvrant des aspects tels que les matériaux d'électrode supérieure, les effets de dopage, et les avantages d'une pile oxyde à commutation résistive (RS) en bi-couche. Ces informations posent les bases pour des investigations ultérieures sur la fiabilité des dispositifs.Un cadre de simulation de Monte Carlo cinétique (KMC) est introduit dans le troisième chapitre, offrant un outil puissant pour sonder le comportement dynamique microscopique de la ReRAM. Ce cadre devient essentiel dans le quatrième chapitre, où la physique de la fiabilité de la ReRAM, en particulier les fluctuations de résistance, est explorée en profondeur. L'analyse révèle des mécanismes complexes régissant les fluctuations et leur impact sur des métriques telles que le standard Failing Bit Count (FBC).Dans le dernier chapitre, l'application des dispositifs ReRAM en tant que synapses dans les réseaux neuronaux artificiels (ANN) est revisitée. Des techniques de programmation et des stratégies pour atténuer l'impact des fluctuations, notamment dans la ReRAM à cellules multi-niveaux (MLC), sont discutées. La thèse se conclut en soulignant le rôle crucial de l'ingénierie des matériaux de la pile ReRAM dans la conception de synapses fiables pour les paradigmes informatiques futurs.Cette exploration approfondie contribue à faire progresser notre compréhension du potentiel de la ReRAM, offrant des éclairages sur l'optimisation des dispositifs, la fiabilité, et son application dans l'informatique neuromorphique. En regardant vers l'avenir, la recherche souligne l'importance de l'innovation continue dans l'ingénierie des matériaux ReRAM pour libérer toutes ses capacités et faciliter son intégration dans le paysage évolutif des technologies informatiques
This thesis investigates the pivotal role of emerging non-volatile memory (NVM) technologies, with a primary focus on Resistive Random-Access Memory (ReRAM), in addressing the challenges of memory latency associated with the shrinking of logic components. The exploration begins by elucidating the fundamental physics of ReRAM and its potential applications in in-memory and neuromorphic computing.The second chapter delves into material engineering strategies to optimize ReRAM performance, covering aspects such as top electrode materials, doping effects, and the benefits of a bi-layer resistive switching (RS) oxide stack. These insights provide a foundation for subsequent investigations into device reliability.A Kinetic Monte Carlo (KMC) simulation framework is introduced in the third chapter, offering a powerful tool for probing the microscopic dynamic behavior of ReRAM. This framework becomes instrumental in the fourth chapter, where the physics of ReRAM reliability, specifically resistance fluctuations, is explored in depth. The analysis reveals intricate mechanisms governing fluctuations and their impact on metrics like the standard Failing Bit Count (FBC).In the final chapter, the application of ReRAM devices as synapses in artificial neural networks (ANNs) is revisited. Programming techniques and strategies to mitigate the impact of fluctuations, particularly in multi-level cell (MLC) ReRAM, are discussed. The thesis concludes by emphasizing the crucial role of ReRAM material stack engineering in designing reliable synapses for future computing paradigms.This comprehensive exploration contributes to advancing our understanding of ReRAM's potential, offering insights into device optimization, reliability, and its application in neuromorphic computing. Looking forward, the research underscores the significance of continued innovation in ReRAM material engineering to unlock its full capabilities and facilitate its integration into the evolving landscape of computing technologies
8

Vaumourin, Gregory. "Gestion hétérogène des données dans les hiérarchies mémoires pour l’optimisation énergétique des architectures multi-coeurs." Thesis, Bordeaux, 2016. http://www.theses.fr/2016BORD0173/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les problématiques de consommation dans la hiérarchie mémoire sont très présentes dans les architectures actuelles que ce soit pour les systèmes embarqués limités par leurs batteries ou pour les supercalculateurs limités par leurs enveloppes thermiques. Introduire une information de classification dans le système mémoire permet une gestion hétérogène, adaptée à chaque type particulier de données. Nous nous sommes intéressé dans cette thèse plus précisément aux données en lecture seule et étudions les possibilités d’une gestion spécifique dans la hiérarchie mémoire à travers un codesign compilation/architecture. Cela permet d’ouvrir de nouveaux potentiels en terme de localité des données, passage à l’échelle des architectures ou design des mémoires. Evaluée par simulation sur une architecture multi-coeurs, la solution mise en oeuvre permet des gains significatifs en terme de réduction de la consommation d’énergie à performance constante
The energy consumption of the memory system in modern architectures is a major issue for embedded system limited by their battery or supercalculators limited by their Thermal Design Power. Using a classification information in the memory system allows a heterogeneous management of data, more specific to each kind of data. During this thesis, we focused on the specific management of read-only data into the memory system through a compilation/architecture codesign. It allows to explore new potentials in terms of data locality, scalability of the system or cache designs. Evaluated by simulation with multi-core architecture, the proposed solution others significant energy consumption reduction while keeping the performance stable
9

Monnet, Sébastien. "Gestion des données dans les grilles de calcul : support pour la tolérance aux fautes et la cohérence des données." Phd thesis, Université Rennes 1, 2006. http://tel.archives-ouvertes.fr/tel-00411447.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les applications scientifiques d'aujourd'hui, telles les simulations de grands phénomènes naturels, requièrent une grande puissance de calcul ainsi qu'une importante capacité de stockage. Les grilles de calcul apparaissent comme une solution permettant d'atteindre cette puissance par la mise en commun de ressources de différentes organisations. Ces architectures présentent en revanche des caractéristiques rendant leur programmation complexe: elles sont dynamiques, hétérogènes, réparties à grande échelle. Cette thèse s'intéresse aux problématiques liées à la conception d'un service de partage de données pour les grilles de calcul. L'objectif est de permettre un accès transparent aux données, en automatisant la localisation, le transfert, la gestion de la persistance et de la cohérence des données partagées. Nous nous sommes plus particulièrement concentrés sur la gestion de la cohérence et de la persistance des données en environnement dynamique. Dans un tel contexte, assurer la persistance nécessite la mise en place de mécanismes de tolérance aux fautes. Nous proposons une approche pour gérer conjointement ces deux aspects via une architecture logicielle multiprotocole permettant de coupler différents protocoles de cohérence avec différents mécanismes de tolérance aux fautes. Nous proposons une conception hiérarchique de cette architecture, adaptée à la topologie réseau des grilles de calcul. Ces contributions ont été mises en oeuvre au sein du service de partage de données pour grilles JUXMEM. Les expérimentations menées sur la grille expérimentale Grid'5000 montrent que notre conception hiérarchique permet d'améliorer les performances des accès aux données partagées.
10

Goglin, Brice. "Réseaux rapides et stockage distribué dans les grappes de calculateurs : propositions pour une interaction efficace." Lyon, École normale supérieure (sciences), 2005. http://www.theses.fr/2005ENSL0328.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
L'objectif de ce travail est d'étudier l'exploitation des réseaux haute performance des grappes dans le cadre du stockage distribué. Les applications parallèles s'exécutant sur les grappes nécessitent à la fois des communications performantes entre les différents noeuds et des accès efficaces au système de stockage. Les travaux menés sur les technologies réseau ont abouti à la conception d'architectures dédiées aux grappes qui permettent des communications très rapides entre les noeuds. Les travaux visant à obtenir un stockage distribué efficace dans les grappes se sont pour leur part principalement focalisés sur des mécanismes de parallélisation pour augmenter la charge de travail supportée par le (ou les) serveur. Nous proposons dans ce travail d'améliorer les performances du stockage distribué dans les grappes en utilisant au mieux le réseau haute performance sous-jacent pour accéder au stockage distant. La question générale que nous soulevons est~: est-ce que les réseaux rapides des grappes sont adaptés à un accès transparent, efficace et performant au stockage distant ? Nous montrons que les besoins du stockage sont très différents de ceux du calcul parallèle. Les réseaux des grappes ont été conçus pour optimiser les communications entre les différents noeuds d'une application parallèle. Nous étudions leur utilisation dans le cadre, très différent, du stockage dans les grappes, qui s'appuie généralement sur un modèle client/serveur d'accès aux fichiers distants (par exemple NFS, PVFS ou Lustre). Une étude expérimentale reposant sur l'utilisation de GM, l'interface de programmation du réseau rapide Myrinet, dans le contexte du stockage distribué révèle différents freins. Tout d'abord, l'utilisation mémoire particulière dans les couches système d'accès au stockage s'intègre difficilement dans l'habituelle gestion mémoire des réseaux rapides. Ensuite, les modèles client-serveur utilisés dans le stockage distribué présentent des besoins spécifiques pour la gestion des messages et des événements réseau, besoins non couverts par les interfaces actuelles. Nous proposons différentes solutions pour résoudre, au niveau du système de fichiers les problèmes liés au contrôle du réseau mais montrons qu'il est nécessaire de modifier l'interface de programmation réseau et le système d'explotation pour venir à bout des difficultés liées au transfert de données. Nous détaillons des propositions à mettre en oeuvre dans les interfaces de programmation du réseau pour faciliter leur utilisation dans le cadre du stockage. L'intégration dans une nouvelle interface de programmation, Myrinet/MX, d'une gestion souple des transferts de données est présentée. Les premiers résultats montrent que son utilisation dans le cadre du stockage distribué, mais aussi dans d'autres applications, se révèle aisée et efficace
This work aims at studying the exploitation of high-speed networks of clusters for distributed storage. Parallel applications running on clusters require both high-performance communications between nodes and efficient access to the storage system. Many studies on network technologies led to the design of dedicated architectures for clusters with very fast communications between computing nodes. Efficient distributed storage in clusters have been essentially developed by adding parallelization mechanisms so that the server(s) may sustain an increased workload. In this work, we propose to improve the performance of distributed storage systems in clusters by efficiently using the underlying high-performance network to access distant storage systems. The main question we are addressing is: do high-speed networks of clusters fit the requirements of a transparent, efficient and high-performance access to remote storage? We show that storage requirements are very different from those of parallel computation. High-speed networks of clusters were designed to optimize communications between different nodes of a parallel application. We study their utilization in a very different context, storage in clusters, where client-server models are generally used to access remote storage (for instance NFS, PVFS or Lustre). Our experimental study based on the usage of the GM programming interface of Myrinet high-speed networks for distributed storage did raised several interesting problems. Firstly, the specific memory utilization in the storage access system layers does not easily fit the traditional memory model of high-speed networks. Secondly, client-server models that are used for distributed storage have specific requirements on message control and event processing, which are not handled by existing interfaces. We propose different solutions to solve communication control problems at the file-system level. We show that a modification of the network programming interface is required. Data transfer issues need an adaptation of the operating system. We detail several propositions for network programming interfaces which make their utilization easier in the context of distributed storage. The integration of a flexible processing of data transfer in the new programming interface Myrinet/MX is finally presented. Performance evaluations show that its usage in the context of both storage and other types of applications is easy and efficient
11

Bigot, Julien. "Du support générique d'opérateurs de composition dans les modèles de composants logiciels : Application au calcul à haute performance." Phd thesis, INSA de Rennes, 2010. http://tel.archives-ouvertes.fr/tel-00626698.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les applications scientifiques posent un véritable défi de par leur complexité et la quantité de données qu'elles traitent. Leur exécution nécessite l'utilisation de ressources matérielles complexes et variées comme les super-calculateurs, les grappes et les grilles de calcul. Les modèles de composants logiciels et en particulier ceux qui proposent des schémas de composition adaptés au calcul à haute performance offrent une piste intéressante pour leur développement. Ces derniers permettent aux applications de s'abstraire des ressources d'exécution et de favoriser ainsi les performances à l'exécution sur une grande gammes d'architectures. Ces modèles restent toutefois limités à un ensemble restreint de schémas de composition. Il en résulte une multiplication des modèles dès que de nouvelles formes de composition apparaissent nécessaires, ce qui est dommageable à l'objectif de réutilisation. La complexité de modifier un modèle existant pour y intégrer de nouveaux opérateurs de composition défavorise aussi ces efforts. Cette thèse propose un modèle de composants logiciels appelé HLCM dans lequel de nouveaux opérateurs de composition peuvent être introduits sans modification du modèle. Ceci est rendu possible par l'introduction en son sein de quatre concepts : la hiérarchie, les connecteurs, la généricité et le choix de mise en œuvre. Afin de favoriser la réutilisation de l'existant, ce modèle est abstrait et il est rendu concret dans des spécialisations qui s'appuient sur les éléments primitifs de modèles existants. Au cours de ces travaux, nous avons étudié comment le concept de généricité pouvait s'appliquer aux modèles de composants et nous avons proposé une approche pour l'y intégrer. Nous avons étudié les interactions problématiques entre les concepts de connecteur et de hiérarchie et avons offert une solution s'appuyant sur une nouvelle approche pour la description des connexions entre composants. Finalement, nous avons proposé une approche pour la mise en œuvre de HLCM qui s'appuie sur des principes issus de l'ingénierie basée sur les modèles. Ces travaux ont été validés en développant un prototype de mise en œuvre de HLCM/CCM, une spécialisation de HLCM qui s'appuie sur le modèle de composant de Corba (CCM). Il a été utilisé pour décrire des interactions complexes entre composants (mémoire partagée et appels de méthode parallèles) et assurer une exécution efficace sur des ressources matérielles variées, notamment sur Grid'5000.
12

Bonnet, Djohan. "Synaptic uncertainty for in-memory computing." Electronic Thesis or Diss., université Paris-Saclay, 2024. http://www.theses.fr/2024UPAST037.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La forte demande pour les réseaux de neurones artificiels, combinée à leur coût énergétique élevé dû au "memory bottleneck" des architectures de von-Neumann, a intensifié les efforts pour surmonter les contraintes du matériel informatique. Cette thèse explore le domaine interdisciplinaire du calcul neuromorphique, en se concentrant sur des études expérimentales, des algorithmes et la conception de circuit intégrés. Dans la partie expérimentale, les caractéristiques électriques des mémoires vives basées sur la transition métal-oxyde (OxRAMs) et les mémoires à changement de phase (PCMs) sont étudiées pour comprendre leurs différentes variabilités. De plus, un réseau de neurones bayésien est implémenté sur 75 puces electroniques. Passant aux algorithmes, la recherche implique des analyses expérimentales et théoriques d'une nouvelle méthode d'apprentissage nommée MESU (MEtaplasticity from Synaptic Uncertainty). Cette méthode exploite l'incertitude synaptique dans les réseaux de neurones Bayésien pour l'apprentissage continuel. Enfin, pour la partie conception de circuit, un démonstrateur pour le calcul dans la mémoire est développé sans outils d'automatisation, tirant parti de la technologie OxRAM, couvrant des aspects allant du dimensionnement des transistors jusqu'à la réalisation du dessin des masques
The high demand for Artificial Neural Networks, combined with their high energy cost due to the memory bottleneck of von-Neumann architectures, has intensified efforts to overcome hardware constraints. This thesis explores the interdisciplinary field of neuromorphic computing, focusing on experimental studies, algorithms, and integrated circuit design. The experimental part investigates the electrical characteristics of resistive random access memories based on metal-oxide transition (OxRAMs) and phase change memories (PCMs) to understand their different variabilities. Additionally, a Bayesian neural network is implemented across 75 electronic chips. Moving to algorithms, the research involves both experimental and theoretical analyses of a novel learning method named MESU, which stands for metaplasticity from synaptic uncertainty. This method exploits synaptic uncertainty in Bayesian neural networks for continual learning. Lastly, for the circuit design part, a full custom in-memory computing demonstrator is developed, leveraging OxRAM technology, covering aspects from transistor sizing to layout realization
13

Zhang, Bo. "Self-optimization of infrastructure and platform resources in cloud computing." Thesis, Lille 1, 2016. http://www.theses.fr/2016LIL10207/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
L’élasticité est pensée comme une solution importante pour gérer des problèmes de performance dans les systèmes répartis. Toutefois, la plupart des recherches d’élasticité ne concernent que l’approvisionnement de ressources de manière automatique, mais ignorent toujours l’utilisation des ressources provisionnées. Cela pourrait conduire à des fuites de ressources, ce qui entraîne des dépenses inutiles. Pour éviter des problèmes, mes recherches se concentrent donc sur la maximisation de l’utilisation des ressources par l’auto-gestion des ressources. Dans cette thèse, en raison de divers problèmes de l’utilisation des ressources dans les différentes couches, je propose deux approches de gestion de ressources correspondant à l’infrastructure et la plate-forme, respectivement. Pour surmonter la limitation des infrastructures, je propose CloudGC comme service de middleware qui vise à libérer les ressources occupées par machines virtuelles qui tournent au ralenti. Dans la couche de plate-forme, une approche d’auto-équilibrage est introduite pour ajuster la configuration de Hadoop lors de l’exécution, ce qui optimise dynamiquement les performances de système. Enfin, cette thèse aussi concerne le déploiement rapide de Hadoop. Un nouvel outil, appelé "hadoop-benchmark", applique docker pour accélérer l’installation de Hadoop et fournir un ensemble d’images de docker qui contiennent plusieurs Hadoop benchmarks bien connus. Les évaluations montrent que ces approches et cet outil peuvent parvenir à l’auto-gestion des ressources dans différentes couches, puis de faciliter l’élasticité de l’infrastructure et de la plate-forme dans le Cloud computing
Elasticity is considered as an important solution to handle the performance issues in scalable distributed system. However, most of the researches of elasticity only concern the provisioning and de-provisioning resources in automatic ways, but always ignore the resource utilization of provisioned resources. This might lead to resource leaks while provisioning redundant resources, thereby causing unnecessary expenditure. To avoid the resource leaks and redundant resources, my research therefore focus on how to maximize resource utilization by self resource management. In this thesis, relevant to diverse problems of resource usage and allocation in different layers, I propose two resource management approaches corresponding to infrastructure and platform, respectively. To overcome infrastructure limitation, I propose CloudGC as middleware service which aims to free occupied resources by recycling idle VMs. In platform-layer, a self-balancing approach is introduced to adjust Hadoop configuration at runtime, thereby avoiding memory loss and dynamically optimizing Hadoop performance. Finally, this thesis concerns rapid deployment of service which is also an issue of elasticity. A new tool, named "hadoop-benchmark", applies docker to accelerate the installation of Hadoop cluster and to provide a set of docker images which contain several well-known Hadoop benchmarks.The assessments show that these approaches and tool can well achieve resource management and self-optimization in various layers, and then facilitate the elasticity of infrastructure and platform in scalable platform, such as Cloud computing
14

Brice, Goglin. "Réseaux rapides et stockage distribué dans les grappes de calculateurs : propositions pour une interaction efficace." Phd thesis, Ecole normale supérieure de lyon - ENS LYON, 2005. http://tel.archives-ouvertes.fr/tel-00408722.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
L'objectif de ce travail est d'étudier l'exploitation des réseaux haute performance des grappes dans le cadre du stockage distribué. Les applications parallèles s'exécutant sur les grappes nécessitent à la fois des communications performantes entre les différents noeuds et des accès efficaces au système de stockage. Les travaux menés sur les technologies réseau ont abouti à la conception d'architectures dédiées aux grappes qui permettent des communications très rapides entre les noeuds. Les travaux visant à obtenir un stockage distribué efficace dans les grappes se sont pour leur part principalement focalisés sur des mécanismes de parallélisation pour augmenter la charge de travail supportée par le (ou les) serveur. Nous proposons dans ce travail d'améliorer les performances du stockage distribué dans les grappes en utilisant au mieux le réseau haute performance sous-jacent pour accéder au stockage distant. La question générale que nous soulevons est : est-ce que les réseaux rapides des grappes sont adaptés à un accès transparent, efficace et performant au stockage distant ? Nous montrons que les besoins du stockage sont très différents de ceux du calcul parallèle. Les réseaux des grappes ont été conçus pour optimiser les communications entre les différents noeuds d'une application parallèle. Nous étudions leur utilisation dans le cadre, très différent, du stockage dans les grappes, qui s'appuie généralement sur un modèle client/serveur d'accès aux fichiers distants (par exemple NFS, PVFS ou Lustre). Une étude expérimentale reposant sur l'utilisation de GM, l'interface de programmation du réseau rapide Myrinet, dans le contexte du stockage distribué révèle différents freins. Tout d'abord, l'utilisation mémoire particulière dans les couches système d'accès au stockage s'intègre difficilement dans l'habituelle gestion mémoire des réseaux rapides. Ensuite, les modèles client-serveur utilisés dans le stockage distribué présentent des besoins spécifiques pour la gestion des messages et des événements réseau, besoins non couverts par les interfaces actuelles. Nous proposons différentes solutions pour résoudre, au niveau du système de fichiers les problèmes liés au contrôle du réseau mais montrons qu'il est nécessaire de modifier l'interface de programmation réseau et le système d'explotation pour venir à bout des difficultés liées au transfert de données. Nous détaillons des propositions à mettre en oeuvre dans les interfaces de programmation du réseau pour faciliter leur utilisation dans le cadre du stockage. L'intégration dans une nouvelle interface de programmation, Myrinet/MX, d'une gestion souple des transferts de données est présentée. Les premiers résultats montrent que son utilisation dans le cadre du stockage distribué, mais aussi dans d'autres applications, se révèle aisée et efficace.
15

Vet, Jean-Yves. "Parallélisme de tâches et localité de données dans un contexte multi-modèle de programmation pour supercalculateurs hiérarchiques et hétérogènes." Paris 6, 2013. http://www.theses.fr/2013PA066483.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les contributions de cette thèse s'appuient sur un modèle de programmation par tâches, dont l'originalité réside dans l'ajustement de la quantité de calcul en fonction de l'unité d'exécution ciblée. Ce modèle de programmation est particulièrement adapté à un équilibrage de charge dynamique entre des ressources de calcul hétérogènes. Il favorise une meilleure exploitation des unités de traitement en offrant une meilleure réactivité en présence de variations des temps d'exécution, lesquelles peuvent être générées par des codes de calcul irréguliers ou des mécanismes matériels difficilement prévisibles. De plus, la sémantique des tâches de calcul facilite le recours à des mécanismes de gestion automatisée des opérations de cohérence des mémoires déportées et décharge les développeurs de cette tâche fastidieuse et source d'erreurs. Nous avons développé la plateforme d'exécution H3LMS afin d'agréger les propositions de cette thèse. Cette plateforme est intégrée à l'environnement de programmation MPC afin de faciliter la cohabitation de plusieurs modèles de programmation pour une meilleure exploitation des grappes de calcul. H3LMS permet, entre autres, de mieux aiguiller les tâches vers les unités de traitement appropriées en réduisant la quantité de coûteux accès distants au sein d'un nœud de calcul. Ces travaux s'intéressent également à l'adaptation de codes de simulation existants, conçus à l'origine pour exploiter exclusivement des processeurs traditionnels et pouvant comporter plusieurs centaines de milliers de lignes de code. Les performances de la solution développée sont évaluées sur la bibliothèque Linpack et par une application numérique réaliste du CEA
This thesis makes several distinct contributions which rely on a dedicated task-based programming model. The novelty of this model resides in a dynamic adjustment of the quantity of embedded operations depending on the targeted processing unit. It is particularly well adapted to dynamically balance workloads between heterogeneous processing units. It better harnesses those units by strengthening responsiveness in the presence of execution times fluctuations induced by irregular codes or unpredictable hardware mechanisms. Moreover, the semantics and programming interface of the task-parallel model facilitates the use of automated behaviors such as data coherency of deported memories. It alleviates the burden of developers by taking care of this tedious work and which can be a source of errors. We developed H3LMS an execution platform designed to combine the propositions detailed in the thesis. The platform is integrated to the MPC programming environment in order to enhance cohabitation with other programming models and thus better harness clusters. H3LMS is elaborated to improve task scheduling between homogeneous and heterogeneous processing units by reducing the need to resort to distant accesses in a cluster node. This thesis also focuses on the adaptation of legacy codes which are originally designed to exploit traditional processors and may also consist of hundreds of thousand lines of code. The performance of this solution is evaluated on the Linpack library and on a legacy numerical application from the CEA
16

Perisse, Emmmanuel. "Le calcium, un déclencheur moléculaire de la formation de la mémoire olfactive à long terme chez l'abeille : approches comportementale et transcriptomique." Toulouse 3, 2009. http://thesesups.ups-tlse.fr/678/.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La formation de la mémoire à long terme requiert des modifications synaptiques, la transcription de gènes et la synthèse de protéines de novo permettant le stockage d'une information. Parmi les nombreux acteurs moléculaires impliqués dans ce processus, le calcium apparaît comme un élément clé. En effet, sa régulation spatio-temporelle lui permet de jouer un rôle crucial dans de nombreuses fonctions nerveuses. Utilisant des approches comportementales, pharmacologiques et moléculaires, ce travail de thèse est focalisé sur le rôle du calcium et l'expression de gènes impliqués dans la formation de la mémoire olfactive à long terme chez l'abeille Apis mellifera. Au cours de ce travail de thèse, nous avons observé que 1) pendant un conditionnement associatif en essais multiples le blocage pharmacologique de l'augmentation de la concentration intracellulaire de calcium ([Ca2+]i), induit spécifiquement une baisse des performances mnésiques à long terme ; 2) à l'inverse, pendant un conditionnement en un seul essai qui ne mène pas à la formation d'une mémoire à long terme, l'augmentation artificielle de la [Ca2+]i induit une augmentation spécifique des performances mnésiques à long terme, lesquelles sont dépendantes de la synthèse de novo de protéines ; 3) Une étude transcriptomique (puce à ADN et RT-PCR quantitative) suggère que le calcium régule l'expression de gènes requis pour la formation de la mémoire à long terme. En conclusion, nos résultats démontrent donc un rôle nécessaire et suffisant du calcium dans la formation de la mémoire olfactive à long terme chez l'abeille. Au niveau moléculaire, le niveau de la [Ca2+]i pendant l'apprentissage serait donc le second messager le plus important permettant le déclenchement de diverses voies moléculaires menant à la régulation de l'expression de gènes cibles requis pour le stockage à long terme d'une information
Long-term memory formation is a neural process requiring synaptic modifications, gene transcription and de novo protein synthesis enabling long-term information storage. Among the different molecular actors involved in memory formation, calcium appears to play a central role. Indeed, its spatial and temporal regulation could allow calcium to play a crucial role in numerous nervous functions. Using behavioral, pharmacological and molecular approaches, this work focuses on the role of calcium and the expression of calcium-dependent genes involved in the formation of an olfactory long-term memory in the honeybee Apis mellifera. Our results revealed that 1) pharmacological buffering of intracellular calcium concentration ([Ca2+]i) during an associative conditioning in multiple trials induces a specific drop of memory performance at long-term; 2) conversely, during a one trial conditioning, a pharmacologically-induced [Ca2+]i increase triggers a specific enhancement of long-term memory, which is dependent on de novo protein synthesis; 3) the analysis of the transcriptomic results (microarray and quantitative RT-PCR) suggest that calcium regulates gene expression required for long-term memory formation. This work establishes the necessary and sufficient role of calcium in the establishment of long-term memory. The [Ca2+]i level during training would be a critical key triggering various molecular pathways leading to the regulation of target genes expression and de novo protein synthesis required for the long-term storage of information
17

Chabane, Hinde. "Contribution à la validation expérimentale de l'approche Monte-Carlo de l'interaction neutron-silicium utilisée dans des codes de physique nucléaire dédiées au calcul de SER des mémoires SRAM." Montpellier 2, 2006. http://www.theses.fr/2006MON20164.

Full text
APA, Harvard, Vancouver, ISO, and other styles
18

Wrobel, Frédéric. "Elaboration d'une base de données des particules responsables des dysfonctionnements dans les composants électroniques exposés à des flux de protons ou de neutrons. Application au calcul des taux d'erreurs dans les mémoires sram en environnement radiatif naturel." Montpellier 2, 2002. http://www.theses.fr/2002MON20064.

Full text
APA, Harvard, Vancouver, ISO, and other styles
19

Giacinti, Anaïs. "Implication fonctionnelle des vaisseaux sanguins cérébraux dans le processus de consolidation mnésique." Thesis, Bordeaux, 2014. http://www.theses.fr/2014BORD0271/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
S’il est bien établi que le flux sanguin cérébral est distribué en fonction de la demandemétabolique des neurones, aucune étude n’a exploré la contribution du réseauvasculaire au processus de consolidation mnésique qui requiert un dialoguehippocampo-cortical permettant le remodelage progressif des réseaux neuronauxcorticaux sous-tendant la trace mnésique ancienne stabilisée.Utilisant un test comportemental induisant une mémoire olfactive associative chez lerat couplé à des techniques d’imagerie cellulaire ex vivo, nous montrons pour lapremière fois, chez le rat adulte sain, une dissociation fonctionnelle entre réactivité etarchitecture du réseau vasculaire cérébral. Nous mettons en évidence des modificationsde signalisation calcique des artères cérébrales qui suggèrent que leur dynamiques’adapte pour permettre l’expression du souvenir. De plus, suivant une cinétiquedifférente, le réseau vasculaire se densifie par angiogenèse dès le lendemain del’apprentissage, y compris dans les régions du cortex ne prenant en charge le souvenirque plusieurs semaines plus tard. En stimulant spécifiquement cette angiogenèse parinjection d’agents pharmacologiques dans le cortex, nous améliorons les performancesdes rats lors du rappel de mémoire ancienne.Pris dans leur ensemble, nos résultats soulignent l’importance de la plasticitévasculaire dans la modulation de la plasticité neuronale et des fonctions cognitives. Ilssuggèrent en outre que les changements structuraux précoces du réseau vasculairepourraient constituer un mécanisme permissif à l’origine de la régulation des épinesdendritiques corticales impliquées dans la formation et le stockage à long terme dessouvenirs.Mots
While there is consensus that cerebral blood flow is distributed according to themetabolic demand of neurons, the contribution of vascular networks to memoryconsolidation, the process by which memories acquire stability over time, remainsunknown. This process requires a transitory hippocampal-cortical interaction allowingthe progressive remodeling of cortical neuronal networks supporting the remotememory trace.By using a behavioral task requiring an associative olfactory memory coupled to cellularimaging techniques, we first reveal, in adult healthy rats, a functional dissociationbetween the reactivity and the architecture of cerebral vascular networks. We identifycalcium signaling changes that occur in specific cerebral arteries, pointing to theirability to adapt their dynamics upon retrieval to enable the successful expression ofeither recent or remote memories. Moreover, we show that vascular networks undergo atime-dependent densification via an angiogenesis mechanism as early as one day afterlearning, including in cortical regions which will only support memory storage andretrieval weeks later. By specifically stimulating this early cortical angiogenesis, we wereable to improve the performance of rats tested for remote memory.Taken together, our results highlight the importance of vascular plasticity inmodulating neuronal plasticity and cognitive functions. They also suggest that the earlystructural changes within vascular networks could constitute a permissive mechanismwhich regulates the development of cortical dendritic spines thought to support theprogressive formation and storage of enduring memories
20

Peultier, Bertrand. "Alliages à Mémoire de Forme: Modélisation et Calcul de Structures." Phd thesis, Paris, ENSAM, 2005. http://pastel.archives-ouvertes.fr/pastel-00001444.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La gamme des alliages à mémoire de forme offre une variété de comportements mécaniques : effet mémoire de forme, super élasticité, amortissement... Ces matériaux peuvent être exploités en vue d'améliorer les solutions techniques existantes, mais ils sont également à l'origine de nouvelles solutions et de produits innovants. Ces travaux de thèse s'attachent au développement d'un outil numérique d'aide au dimensionnement d'applications en AMF. L'accent est mis sur le couplage thermique-mécanique et l'exploitation des AMF sous forme d'actionneur. Le modèle du comportement macroscopique des AMF développé est basé sur une étude de la thermodynamique de la transformation de phase martensitique et propose une description de l'état interne du matériau basé sur un choix original des variables internes : la fraction volumique de martensite et la déformation de transformation propre de la martensite. Le modèle est validé sur une campagne de caractérisation du comportement mécanique et thermique du matériau. Le point de vue macroscopique adopté autorise l'utilisation raisonnable du modèle avec la méthode des Éléments finis. Le travail d'intégration numérique du modèle conduit à un algorithme robuste et efficace adapté au calcul de structures.
21

Etcheverry, Arnaud. "Simulation de la dynamique des dislocations à très grande échelle." Thesis, Bordeaux, 2015. http://www.theses.fr/2015BORD0263/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Le travail réalisé durant cette thèse vise à offrir à un code de simulation en dynamique des dislocations les composantes essentielles pour permettre le passage à l’échelle sur les calculateurs modernes. Nous abordons plusieurs aspects de la simulation numérique avec tout d’abord des considérations algorithmiques. Pour permettre de réaliser des simulations efficaces en terme de complexité algorithmique pour des grandes simulations, nous explorons les contraintes des différentes étapes de la simulation en offrant une analyse et des améliorations aux algorithmes. Ensuite, une considération particulière est apportée aux structures de données. En prenant en compte les nouveaux algorithmes, nous proposons une structure de données pour bénéficier d’accès performants à travers la hiérarchie mémoire. Cette structure est modulaire pour faire face à deux types d’algorithmes, avec d’un côté la gestion du maillage nécessitant une gestion dynamique de la mémoire et de l’autre les phases de calcul intensifs avec des accès rapides. Pour cela cette structure modulaire est complétée par un octree pour gérer la décomposition de domaine et aussi les algorithmes hiérarchiques comme le calcul du champ de contrainte et la détection des collisions. Enfin nous présentons les aspects parallèles du code. Pour cela nous introduisons une approche hybride, avec un parallélisme à grain fin à base de threads, et un parallélisme à gros grain de type MPI nécessitant une décomposition de domaine et un équilibrage de charge.Finalement, ces contributions sont testées pour valider les apports pour la simulation numérique. Deux cas d’étude sont présentés pour observer et analyser le comportement des différentes briques de la simulation. Tout d’abord une simulation extrêmement dynamique, composée de sources de Frank-Read dans un cristal de zirconium est utilisée, avant de présenter quelques résultats sur une simulation cible contenant une forte densité de défauts d’irradiation
This research work focuses on bringing performances in 3D dislocation dynamics simulation, to run efficiently on modern computers. First of all, we introduce some algorithmic technics, to reduce the complexity in order to target large scale simulations. Second of all, we focus on data structure to take into account both memory hierachie and algorithmic data access. On one side we build this adaptive data structure to handle dynamism of data and on the other side we use an Octree to combine hierachie decompostion and data locality in order to face intensive arithmetics with force field computation and collision detection. Finnaly, we introduce some parallel aspects of our simulation. We propose a classical hybrid parallelism, with task based openMP threads and domain decomposition technics for MPI
22

Desprez, Frédéric. "Procédures de base pour le calcul scientifique sur machines parallèles à mémoire distribuée." Phd thesis, Grenoble INPG, 1994. http://tel.archives-ouvertes.fr/tel-00344993.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Le but de cette thèse est l'étude et l'implémentation de routines de base pour aider l'utilisateur de machines parallèles à mémoire distribuée à obtenir les meilleures performances avec un coût de développement moindre. Trois ensembles de routines sont étudiés. Le premier concerne des routines de communication sur réseau réconfigurable. La seconde bibliothèque fournit à l'utilisateur des routines portables de recouvrements calculs/communications transparents. Enfin, le dernier ensemble concerne des routines de calcul comme le produit de matrices, la factorisation LU et la transformée de Fourier bidimensionnelle. Une attention toute particulière est portée aux recouvrements calculs/communications. Enfin, une application des principes présentés tout au long de la thèse est donnée. Elle concerne la simulation d'un front de combustion
23

Dandouna, Makarem. "Librairies numériques réutilisables pour le calcul distribué à grande échelle." Versailles-St Quentin en Yvelines, 2012. http://www.theses.fr/2012VERS0063.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Nous présentons, dans cette thèse, un modèle de conception des librairies numériques orienté composant basé sur une séparation stricte entre le traitement des données, la définition des opérations de calcul et les communications. Ce modèle permet la réutilisabilité séquentielle/parallèle ainsi que l'expression du parallélisme multi-niveaux. L'abstraction des trois aspects principaux d'une librairie parallèle par le modèle de conception proposé permet l'indépendance de celle-ci vis à vis des mécanismes de communication. Une des conséquences de cette indépendance est la possibilité de porter à l'échelle les librairies parallèles existantes et celles conçues selon ce modèle. Afin de valider l'approche proposée, nous réalisons deux applications de notre modèle sur des librairies numériques existantes conçues différemment utilisées conjointement avec YML un environnement de workfow scientifique. Nos expérimentations réalisées sur le supercalculateur HopperII du National Energy Research Scientifc Computing Center (NERSC) et sur la plateforme nationale française Grid'5000 montrent l'efficacité et la mise à l'échelle de notre approche
We propose, in this thesis, a design model for numerical libraries based on a component oriented approach and a strict separation between data management, computation operations and communication control of an application. This model allows the sequential/parallel reusability as well as the expression of the multi-levels parallelism. The abstraction of the three principals aspects of a parallel library suggested by our design model allows the independence of this one from the communication mecanisms. One of the consequences of this independence is the possibility to make more scalable the existing parallel libraries and those built according to this model. To validate the proposed approach, we realize our design model basing on some existing numerical libraries designed differently used jointly with a scientifc workfow environment called YML. Experiments performed on the supercomputer HopperII from the National Energy Research Scientifc Computing Center (NERSC) and on the national French Grid'5000 platform show the effciency and the scalability of our approach
24

Morin, Catherine. "L'oubli en mémoire." Master's thesis, Université Laval, 2016. http://hdl.handle.net/20.500.11794/26870.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Mon travail en estampe, que ce soit en lithographie, en gravure ou en sérigraphie, se base sur le principe de la création de générations par le brouillage répété de l'image-matrice. L'œuvre élaborée à partir de photographies est confrontée à une altération de l'image-initiale par un processus de transformation. Cela est la source même de la création des diverses générations ou états qui seront engendrés. Images floues et précises à la fois, mes œuvres laissent transparaître un mystère, dégagé par les variations de nuances, lesquelles jouent sur la netteté des images. La résultante de chaque phase du procédé de création permet de noter des pertes, des effacements et des transformations qui ont mené à la création de l'image. Mais encore, il y a renforcement de la temporalité de l'image-matrice en la faisant revivre dans un autre contexte. Les effets de transparence, l'utilisation de monochromes noir et blanc, le travail des textures et le souci du détail sont également des aspects omniprésents dans ma démarche artistique. Enfin, mon travail laisse place aux erreurs de parcours pour les mettre à profit.
25

Gras-Vincendon, Agnès. "Fonctionnement de la mémoire dans l'autisme : Etude de la mémoire temporelle et des états subjectifs de conscience en mémoire épisodique dans l'autisme." Université Louis Pasteur (Strasbourg) (1971-2008), 2005. http://www.theses.fr/2005STR14789.

Full text
APA, Harvard, Vancouver, ISO, and other styles
26

Maillard, Nicolas. "Calcul Haute-Performance et Mécanique Quantique : analyse des ordonnancements en temps et en mémoire." Phd thesis, Université Joseph Fourier (Grenoble), 2001. http://tel.archives-ouvertes.fr/tel-00004684.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Ce travail présente l'apport de l'ordonnancement pour la programmation parallèle performante d'applications numériques en mécanique et chimie quantique. Nous prenons deux exemples types de résolution de l'équation de Schrödinger --- Boîte Quantique (BQ) et Méthode des Perturbations d'ordre 2 (MP2) --- qui nécessitent de grosses ressources en calcul et mémoire. La programmation traditionnelle (échange de messages et/ou multithreading) des machines parallèles (distribuées ou SMP) est illustrée par les performances obtenues avec le benchmark Linpack sur la grappe I-cluster (INRIA). Le manque de portabilité du code hautement performant obtenu montre l'importance d'un environnement de programmation parallèle permettant de découpler le codage de l'algorithme de son ordonnancement sur la machine cible. Nous introduisons alors Athapascan, qui repose sur l'analyse du flot de données, pour calculer dynamiquement des ordonnancements prouvés efficaces. Un premier critère d'efficacité est le temps de calcul. Sur certains modèles de machines, la théorie et l'expérience montrent que Athapascan permet des ordonnancements qui garantissent des exécutions efficaces pour certains algorithmes adaptés à BQ, de type itératif (méthode de Lanczos). Un deuxième critère fondamental est l'espace mémoire requis pour les exécutions parallèles en calcul numérique ; c'est particulièrement critique pour MP2. Nous proposons d'annoter le Graphe de Flot de Données (GFD) manipulé par Athapascan pour prendre en compte la mémoire et permettre des ordonnancements dynamiques efficaces en mémoire. Pour MP2, dont le GFD est connu statiquement, un ordonnancement efficace en temps et en mémoire est donné.
27

Dusser, Julien. "Blocs nuls dans la hiérarchie mémoire." Phd thesis, Université Rennes 1, 2010. http://tel.archives-ouvertes.fr/tel-00557080.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La hiérarchie mémoire subit une pression qui ne cesse de croître. Cette pression a eu pour origine la montée en fréquence des processeurs. Cependant, maintenant que la fréquence stagne autour de 3 GHz, le nombre de cœurs d'exécution et donc le nombre de processus s'exécutant simultanément augmentent à leur tour. La hiérarchie mémoire subit alors un nombre croissant de requêtes, conduisant à la saturation de sa bande passante. Les travaux présentés dans cette thèse montrent que la hiérarchie mémoire est souvent utilisée pour transporter des blocs de données totalement nuls. Ces blocs de valeur triviale se trouvent particulièrement nombreux au dernier niveau de cache et au niveau de la mémoire principale. Nous proposons dans ce document d'utiliser un cache spécialisé dans la gestion de ces blocs nuls, le Zero-Content Augmented Cache. Ce dernier est composé d'un cache traditionnel et d'un cache dédié aux blocs nuls. Cette proposition permet à la fois d'augmenter les performances globales du système et de réduire significativement la bande passante mémoire utilisée. Dans ce document, nous proposons également une architecture de mémoire compressée utilisant la présence de blocs nuls, la Decoupled Zero-Compressed Memory. Cette mémoire permet de stocker un working-set plus grand que la taille de la mémoire physique, et donc de réduire significativement le nombre d'accès aux périphériques de stockage de masse.
28

Gadafi, Aeiman. "Gestion mémoire dans une infrastructure répartie." Phd thesis, Toulouse, INPT, 2013. http://oatao.univ-toulouse.fr/11004/1/gadafi.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
De nos jours, de plus en plus d'organisations déploient des infrastructures matérielles telles que des clusters ou des grilles. Elles sont utilisées pour héberger des services internet communs tels que l'email, les réseaux sociaux ou le commerce électronique ou pour exécuter des applications scientifiques telles que les simulations nucléaires ou les prédictions météorologiques. La capacité de traitement et de stockage demandée pour répondre à la charge de travail de ces applications ne peut être fournie que par le biais de ces infrastructures matérielles. Ces infrastructures matérielles embarquent des systèmes d'exploitation, qui peuvent potentiellement coopérer dans le but de gérer au mieux les ressources disponibles. Ces systèmes gèrent alors l'allocation des ressources aux applications en fonction des besoins de ces dernières. Ces systèmes visent à garantir la qualité de service et en même temps à gérer de façon optimale les ressources dans le but de limiter les coûts, notamment l'énergie. La communauté scientifique s'est intéressée à la problématique de la gestion des ressources. De nombreuses approches ont été proposées et des solutions ont été mises en œuvre. En réalisant un état de l'art de ces approches, nous constatons que la plupart d'entre elles s'intéressent à la gestion des nœuds dans l'objectif de répartir les calculs d'une façon adéquate pour exploiter de manière optimale la charge processeur. La gestion globale de la mémoire dans de telles infrastructures n'a pas été suffisamment étudiée. En effet, la mémoire est souvent considérée comme une ressource avec une capacité théoriquement illimitée grâce aux mécanismes de swap, mais ces derniers ont des conséquences importantes sur les performances des applications et le coût de fonctionnement de l'infrastructure. Dans cette thèse, nous étudions la conception et l'implantation d'un service de gestion globale de la mémoire dans une infrastructure matérielle. Ce service de gestion de mémoire doit éviter le gaspillage de mémoire et ne doit pas pénaliser les performances des applications hébergées. Nous proposons un service de swap à distance permettant à une machine, plutôt que swapper sur son disque local, de swapper sur la mémoire distante d'une autre machine ayant de la mémoire disponible. Les pages distantes peuvent être déplacées dynamiquement afin d'équilibrer la charge entre les machines. Ceci permet de mutualiser la mémoire et d'économiser les ressources. Un prototype a été implémenté et évalué.
29

Makunga, Lendo. "Mémoire et oubli dans l'Ancien Testament." Université Marc Bloch (Strasbourg) (1971-2008), 2006. http://www.theses.fr/2006STR20029.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Cette thèse tente d'analyser tous les textes de l'Ancien Testament qui fondent la mémoire historique de l'Israël biblique. Le but de cette étude est de montrer comment l'Israël biblique entretient cette mémoire. Cette thèse est divisée en trois chapitres de longueur inégale. Le premier chapitre développe les lieux de mémoire. Le deuxième chapitre étudie le contenu de la mémoire. Le troisième chapitre s'attache à confronter la culture d'Israël biblique avec la culture yombe de la République Démocratique du Congo en rapport avec la mémoire. Il ressort de cette recherche que l'insistance par l'Israël biblique sur la mémoire et sur la production de textes qui servent à fixer cette mémoire s'explique le mieux à partir de la destruction de Jérusalem, en 586 avant Jésus-Christ, et de l'effondrement de ses institutions politiques et cultuelles. Au plan théologique, la mémoire apparaît donc comme une réflexion relativement récente dans l'Ancien Testament
This thesis tries to analyse all the Old Testament texts which base the Historical Memory of the Biblical Israel. The purpose of this study is to show how the Biblical Israel keeps this memory alive. This thesis is divided into three chapters of unequal length. The first chapter develops the memory places. The second chapter studies the memory content. The third chapter compares the Biblical Israel Culture with the Yombe Culture of Democratic Republic of Congo related with the memory. It results from this research that the Biblical Israel insistence on the memory and texts production which aim of keeping this memory alive is best explained by the destruction of Jerusalem and its political and cultual institutions collapse in 586 B. C. Therefore, from the theological point of view, the memory is seen as a relatively recent thought in the Old Testament
30

Ancrenat, Anne-Marie. "De mémoire de femmes, la mémoire archaïque dans l'oeuvre romanesque d'Anne Hébert." Thesis, National Library of Canada = Bibliothèque nationale du Canada, 1997. http://www.collectionscanada.ca/obj/s4/f2/dsk3/ftp04/nq25373.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
31

Kaci, Ania. "Conception d'une architecture extensible pour le calcul massivement parallèle." Thesis, Paris Est, 2016. http://www.theses.fr/2016PESC1044.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
En réponse à la demande croissante de performance par une grande variété d’applications (exemples : modélisation financière, simulation sub-atomique, bio-informatique, etc.), les systèmes informatiques se complexifient et augmentent en taille (nombre de composants de calcul, mémoire et capacité de stockage). L’accroissement de la complexité de ces systèmes se traduit par une évolution de leur architecture vers une hétérogénéité des technologies de calcul et des modèles de programmation. La gestion harmonieuse de cette hétérogénéité, l’optimisation des ressources et la minimisation de la consommation constituent des défis techniques majeurs dans la conception des futurs systèmes informatiques.Cette thèse s’adresse à un domaine de cette complexité en se focalisant sur les sous-systèmes à mémoire partagée où l’ensemble des processeurs partagent un espace d’adressage commun. Les travaux porteront essentiellement sur l’implémentation d’un protocole de cohérence de cache et de consistance mémoire, sur une architecture extensible et sur la méthodologie de validation de cette implémentation.Dans notre approche, nous avons retenu les processeurs 64-bits d’ARM et des co-processeurs génériques (GPU, DSP, etc.) comme composants de calcul, les protocoles de mémoire partagée AMBA/ACE et AMBA/ACE-Lite ainsi que l’architecture associée « CoreLink CCN » comme solution de départ. La généralisation et la paramètrisation de cette architecture ainsi que sa validation dans l’environnement de simulation Gem5 constituent l’épine dorsale de cette thèse.Les résultats obtenus à la fin de la thèse, tendent à démontrer l’atteinte des objectifs fixés
In response to the growing demand for performance by a wide variety of applications (eg, financial modeling, sub-atomic simulation, bioinformatics, etc.), computer systems become more complex and increase in size (number of computing components, memory and storage capacity). The increased complexity of these systems results in a change in their architecture towards a heterogeneous computing technologies and programming models. The harmonious management of this heterogeneity, resource optimization and minimization of consumption are major technical challenges in the design of future computer systems.This thesis addresses a field of this complexity by focusing on shared memory subsystems where all processors share a common address space. Work will focus on the implementation of a cache coherence and memory consistency on an extensible architecture and methodology for validation of this implementation.In our approach, we selected processors 64-bit ARM and generic co-processor (GPU, DSP, etc.) as components of computing, shared memory protocols AMBA / ACE and AMBA / ACE-Lite and associated architecture "CoreLink CCN" as a starting solution. Generalization and parameterization of this architecture and its validation in the simulation environment GEM5 are the backbone of this thesis.The results at the end of the thesis, tend to demonstrate the achievement of objectives
32

ABDICHE, MINA. "Pi-calcul et sous-typage : inference de types et codages du lambda-calcul dans le pi-calcul." Paris 11, 2000. http://www.theses.fr/2000PA112214.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Le pi-calcul est une algebre de processus definie a partir de deux concepts : nommer et communiquer. Les noms sont des canaux de communication, et communiquer consiste a echanger des noms. Le pi-calcul permet ainsi de representer des systemes concurrents dont les liens de communication peuvent evoluer dynamiquement. Le pi-calcul possede une grande puissance d'expression. On peut y coder diverses structures de donnees. Il permet de retrouver toute la puissance d'expression du lambda-calcul vu qu'on peut y coder ce dernier. On peut aussi y representer des objets et des objets concurrents ainsi que des calculs d'ordre superieur ou un processus peut etre transmis sur un canal. En utilisant comme seul mecanisme d'evaluation la communication, un langage noyau a ete bati directement sur le pi-calcul. Le pi-calcul a aussi servi de base pour definir de nouveaux calculs. Dans ce travail, nous nous interessons au sous-typage dans le pi-calcul. D'une part, nous definissons un systeme de types pi-sub, qui permet de specifier l'arite d'un canal et son mode d'utilisation : emettre uniquement, recevoir uniquement, emettre et recevoir ou est juste emis ou recu mais jamais utilise pour emettre ou recevoir. Nous proposons un algorithme d'inference de types pour ce systeme de types. Cet algorithme permet alors de detecter des erreurs de communication et de donner une analyse fine de l'utilisation des canaux. D'autre part, la possibilite de coder le lambda-calcul dans le pi-calcul, montre que ce dernier peut servir pour l'etude de la semantique de langages fonctionnels concurrents. Quand nous nous interessons aux langages types, etudier la correspondance entre le typage dans les deux calculs devient une question pertinente. Cela permet aussi de voir si des techniques developpees pour l'un peuvent etre utilisees pour l'autre. Nous etudions ce probleme en presence de sous-typage simple. Pour divers codages du lambda-calcul dans le pi-calcul, nous etudions la correspondance entre le typage dans lambda-sub et le typage dans pi-sub.
33

Ahmad, Mumtaz. "Stratégies d'optimisation de la mémoire pour le calcul d'applications linéaires et l'indexation de document partagés." Phd thesis, Université Henri Poincaré - Nancy I, 2011. http://tel.archives-ouvertes.fr/tel-00641866.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Cette thèse vise à développer des stratégies permettant d'augmenter la puissance du calcul séquentiel et des systèmes distribués, elle traite en particulier, la décomposition séquentielle des opérations ainsi que des systèmes d'édition collaboratifs décentralisés. La croissance rapide de l'utilisation des nouvelles technologies informatiques résulte de la nécessité d'avoir des performances élevées, dans tout domaine lié au calcul informatique. Une telle quête de performances a abouti à une plus grande complexité dans les architectures informatiques, conduisant à un stress non négligeable dans la technologie des compilateurs. De puissants microprocesseurs se trouvent au cœur de toute machine informatique, allant des serveurs et ordinateurs personnels, aux ordinateurs portables, jusqu'aux téléphones cellulaires " iPhone ". En effet, l'augmentation incessante des performances constitue un défi permanent dans les sciences informatiques. Par ailleurs, le développement rapide des réseaux informatiques a conduit à un progrès vers une édition collaborative en temps réel (RCE). Cette dernière permet à des groupes d'utilisateurs l'édition simultanée de documents partagés résidant dans des sites physiques dispersés, mais interconnectés par un réseau informatique. Dans de tels systèmes distribués, les conflits liés aux communications sont un défi à relever. De ce fait, la communication indexée devient une nécessité absolue. Nous introduisons, une méthode d'indexage avec précision contrôlée. Celle-ci permet la génération d'identifiants uniques utilisés dans l'indexage des communications dans les systèmes distribués, plus particulièrement dans les systèmes d'édition collaboratifs décentralisés. Ces identifiants sont des nombres réels avec un motif de précision contrôlé. Un ensemble fini d'identifiants est conservé pour permettre le calcul de cardinalités locales et globales. Cette propriété joue un rôle prépondérant dans la gestion des communications indexées. De plus, d'autres propriétés incluant la préservation de l'ordre sont observées. La méthode d'indexage a été testée et vérifiée avec succès. Ceci a permis la conception d'un système d'édition collaboratif décentralisé. Aussi, nous explorons les stratégies existantes, relatives a la décomposition séquentielle d'opérations, que nous étendons à de nouvelles stratégies. Ces stratégies mènent à une optimisation (processeur, compilateur, mémoire, code). Ces styles de décomposition portent un intérêt majeur à la communauté scientifique. Des recherches et des implémentations de plus en plus rapides résultent de la conception d'unité arithmétique.
34

Dauvois, Nathalie. "Mémoire et poésie dans l'oeuvre de Ronsard." Paris 10, 1986. http://www.theses.fr/1986PA100097.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Ce travail a pour objet de s'interroger sur le statut de la mémoire dans l'œuvre de Ronsard. Dans cette notion se définit l'enjeu d'une écriture. Le rapport établi dans l'œuvre ronsardienne entre le trésor d'invention du poème et sa postérité mémorielle l'inscrit dans la tradition de la rhétorique épidictique. La mémoire est source d'une topique qui coïncide avec le système des vertus. Le poète consacre un Mnemeion immortel au héros célèbre en le consacrant comme exemple de vertu, en puisant dans sa mémoire la matière et les moyens de cette illustration. À partir de ce modelé sont étudiées les modifications opérées par le texte, est retracée une évolution : celle d'une poésie ou domine la fonction rhétorique, la volonté persuasive et didactique, ou valeur d'enseignement et valeur et se confondent à une poésie ou domine la fonction poétique, l'orientation de l'œuvre vers elle-même, et qui impose à son lecteur de participer à la constitution d'une mémoire contextuelle. Cette mémoire contextuelle se constitue dans le réseau d'une mémoire intertextuelle : l'œuvre se conçoit progressivement comme telle en renouvelant sa propre démarche d'imitation, en reprenant et réécrivant les mêmes mythes. Le jeu de variation et d'autocitation fait dialoguer dans la mémoire du lecteur et dans le même langage œuvres antiques et œuvres ronsardienne, impose leur équivalence mémorielle dans le mouvement ou il impose la reconnaissance de la singularité d'une voix. L’invention d'une poétique de mémoire est donc liée a l'apparition d'une mémoire des bibliothèques, lieu du retour à la source vive des voix poétiques, lieu du dialogue renouvelé des œuvres, auteurs et lecteurs passes, présents et futurs
This survey aims to wonder about the status of memory within the Ronsard’s masterwork. In this notion are defined the stakes of a writing. The link established in the Ronsard’s work between the treasure of invention of the poem and its future memory situates it into the tradition of epidictical rhetoric. Memory is the source of a topic which is inkeeping with the system of virtues. The poet dedicates an immortal Mnemeion to the celebrated hero sighting him out as an exemplarity of virtue, searching into his memory the material and the means of this illustration. From this model are studied the modifications operated by the text, is drawn an evolution: this one of a poetry where is enhanced the rhetoric function, the persuasive and didactic will, where teaching value and memorable value are mingled, and a poetry where is enhanced the poetic value, the aim of the work towards itself, and which obliges the reader to take part to the constitution of a contextual memory. This contextual memory is elaborated within the network of an intertextual memory: the author conceives progressively his work renewing his own way of imitation and particularly writing out the same myths. The game of variation and auto citation establishes a dialogue in the reader's memory and within the same language between antic works and Ronsardian work and, defining the singularity of a poetic voice, defines it as memorable as Homeric or Virgilian voices. The invention of a poetic of memory is therefore linked to the birth of a memory of libraries, place of return to the source of poetic voices, place of a renewed dialogue between works, authors and readers of past, present and future
35

Syska, Michel. "Communication dans les architectures à mémoire distribuée." Nice, 1992. http://www.theses.fr/1992NICE4562.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Cette thèse traite des aspects complémentaires des machines parallèles à mémoire distribuée. Un premier chapitre établit un état de l'art des techniques de communications mises en oeuvre dans les machines existantes ou en projet. Cette étude permet d'introduire différents modèles de communication et pose le problème du choix du réseau d'interconnexion. Les modes de communication des nouvelles machines parallèles sont du type commutation de circuit, comme le routage wormhole qui remplace désormais le classique store-and-forward. Le deuxième chapitre concerne l'utilisation efficace des canaux virtuels en wormhole pour éviter les interblocages. On montre comment utiliser un nombre minimum de canaux virtuels pour les réseaux quelconques et pour des familles courantes de réseaux d'interconnexion. Dans le troisième chapitre nous décrivons un algorithme de diffusion optimal pour les tores bidimensionnels qui utilise un routage synchrone de type commutation de circuit. L'algorithme repose sur un découpage récursif du tore en 5 parties égales. Le quatrième chapitre traite de la topologie des réseaux d'interconnexion. Etant donné un graphe, l'excentricité moyenne d'un sommet est définie comme la distance moyenne de ce sommet à tous les autres. Le calcul de ce paramètre est difficile dans le cas des graphes de de Bruijn. Dans ce chapitre nous donnons des bornes inferieures et supérieures de l'excentricité moyenne pour ces graphes. Le chapitre suivant donne une implantation efficace et générique de l'algorithme de la Transformée de Fourier rapide sur les réseaux de de Bruijn. On utilise le résultat suivant sur la conjonction de ces réseaux: le produit cartésien de deux de Bruijn est un de Bruijn
36

Lacore-Martin, Emmanuelle. "Temps, mémoire, histoire dans l'oeuvre de Rabelais." Paris 3, 2003. http://www.theses.fr/2003PA030057.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
L'œuvre de Rabelais se situe dans une période charnière de l'histoire littéraire, entre une modernité qui s'ébauche et le dernier souffle d'un Moyen Âge dont elle porte encore la trace. Cette situation particulière motive et informe en profondeur une réflexion sur le temps qui se définit et se construit dans le texte en relation avec les thèmes corollaires de la mémoire et de l'histoire. C'est d'abord dans le jeu sur la représentation du temps dans la structure narrative que s'exprime un questionnement très moderne sur la nature du temps représenté. Cette question ouvre aussi la voie à une réflexion sur l'opposition entre récit vrai et récit fictif, qui se prolonge dans la critique d'une historiographie encore contaminée par la fable. La vision rabelaisienne des modalités de l'écriture de l'histoire s'ancre elle-même dans une opposition entre histoire écrite et mémoire collective, qui pose de façon ultime la question de l'inscription du temps de l'homme dans le temps du monde
Rabelais' works stand at a crossroads in literary history, partaking in the sweeping renewal movement in every domain of knowledge, which characterizes the beginning of the sixteenth century, while still bearing the legacy of the finishing medieval times. This particular situation appears to deeply motivate and influence a reflection on the notion of time in the text, within a meaningful network linking it with the associated themes of history and memory. Rabelais' playful approach of time in the narrative reveals a questioning of the nature of narrated time itself, which leads to a reflection on the specificity of the historical text as opposed to fiction - at a time when boundaries between the two are still blurred. This critical comment on historiography is rooted in an opposition between memory and history, written history and the living memory of the people, which is ultimately linked with the question of the nature and structure of time and the intersection between human and cosmic time
37

Morasse, Karine. "La mémoire épisodique dans le développement normal et dans l'autisme." Thesis, National Library of Canada = Bibliothèque nationale du Canada, 2001. http://www.collectionscanada.ca/obj/s4/f2/dsk3/ftp05/NQ65322.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
38

Blanc, Tomasz. "Propriétés de sécurité dans le lambda-calcul." Phd thesis, Ecole Polytechnique X, 2006. http://pastel.archives-ouvertes.fr/pastel-00002090.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Nous examinons les propriétés de sécurité du lambda-calcul au travers du prisme du lambda-calcul étiqueté. Les étiquettes expriment dynamiquement la dépendance des termes présents vis-à-vis des réductions passées. Nous montrons que le lambda-calcul étiqueté vérifie la propriété d'irréversibilité des contextes: une fois qu'un contexte est intervenu dans une réduction, il disparaît irréversiblement dans la suite de cette réduction. Nous examinons les propriétés fondamentales de variantes du lambda-calcul étiqueté. Pour cela, nous introduisons une preuve élégante du théorème des développements finis dans la cadre du lambda-calcul par valeur étiqueté. Puis nous prouvons que les étiquettes du lambda-calcul faible expriment le partage. Les étiquettes du lam! bda-calcul permettent d'exprimer des politiques de sécurité telles que l'inspection de pile et la Muraille de Chine. Nous définissons la notion de réduction indépendante de deux principaux A et B: une telle réduction peut se décomposer en deux réductions: une réduction qui ignore A et une réduction qui ignore B. Nous prouvons que la Muraille de Chine garantit cette propriété d'indépendance. Les étiquettes du lambda-calcul permettent aussi d'exprimer la propriété d'interférence: il s'agit ici d'identifier les sous-termes d'un terme M qui influencent le résultat de la réduction de M. Dans le lambda-calcul muni de références, en plus de l'interférence fonctionnelle déjà présente dans le lambda-calcul pur, on identifie l'interférence de mémoire due à l'utilisation des référe! nces. Les étiquettes permettent d'identifier les int! ervalles de temps pendant lesquels une référence influence le résultat d'une réduction.
39

Pomeransky, Andrei. "Intrication et Imperfections dans le Calcul Quantique." Phd thesis, Université Paul Sabatier - Toulouse III, 2004. http://tel.archives-ouvertes.fr/tel-00007256.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
L'information quantique est un nouveau domaine de la physique, qui consiste à employer les systèmes quantiques dans le calcul et la transmission de l'information. Cette thèse est consacrée à l'étude de certains aspects théoriques de l'information quantique. Les ordinateurs quantiques utilisent les lois de la mécanique quantique pour exécuter des calculs d'une manière bien plus efficace que les ordinateurs existants. Les ordinateurs quantiques envisageables dans la pratique seraient influencés par des perturbations diverses. Parmi ces sources de perturbations, les interactions résiduelles statiques (indépendantes du temps) à l'intérieur de l'ordinateur sont connues pour être les plus dangereuses dans le sens où elles peuvent s'ajouter de façon cohérente, tandis que les autres perturbations ont la forme d'un bruit aléatoire avec une moyenne égale à zéro. Nous étudions, dans les cas de deux calculs quantiques très différents, l'efficacité des ordinateurs quantiques en présence d'imperfections statiques. Nous trouvons le domaine des paramètres dans lequel l'ordinateur quantique est robuste en présence des imperfections. Une des raisons fondamentales de l'efficacité extraordinaire de l'ordinateur quantique et de l'existence d'autres applications de l'information quantique est l'effet de l'intrication quantique. L'intrication consiste dans l'impossibilité de considérer un état pur générique d'un système quantique composé comme le simple produit des états purs de ses sous-systèmes. Dans cette thèse nous étudions certaines propriétés importantes d'une certaine mesure quantitative d'intrication largement utilisée. Nous considérons également l'entropie informationnelle moyenne des états quantiques, puis nous trouvons une expression explicite pour cette quantité et étudions ses propriétés les plus importantes.
40

Mezzina, Claudio antares. "Réversibilité dans le pi calcul d'ordre supérieur." Phd thesis, Université de Grenoble, 2012. http://tel.archives-ouvertes.fr/tel-00683964.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Le concept de réversibilité est ancien, mais il soulève de nos jours beaucoup d'intérêt. Il est en effet exploité dans de nombreux domaines tels que la conception de circuits, le débogage et le test de programmes, la simulation et l'informatique quantique. L'idée d'un modèle de programmation réversible peut se montrer particulièrement intéressante pour la construction de systèmes sûrs de fonctionnement, ne serait-ce que parce que plusieurs techniques connues pour la construction de tels systèmes exploitent une forme ou une autre de retour en arrière ou de reprise. Nous poursuivons dans cette thèse l'étude entreprise avec CCS réversible par Vincent Danos et Jean Krivine, en définissant un pi-calcul d'ordre supérieur réversible (rhopi). Nous prouvons que le modèle obtenu est causalement cohérent, et que l'on peut encoder fidèlement rhopi dans une variante du pi-calcul d'ordre supérieur. Nous définissons également une primitive de reprise à grain fin qui permet de contrôler le retour en arrière dans une exécution concurrente. Nous spécifions formellement la sémantique de cette primitive, et nous montrons qu'elle possède de bonnes propriétés, y compris en présence d'opérations de reprise concurrentes. Enfin nous définissons un algorithme concurrent implantant cette primitive de reprise et ous montrons que cet algorithme respecte la sémantique définie.
41

Mezzina, Claudio Antares. "Réversibilité dans le pi calcul d'ordre supérieur." Thesis, Grenoble, 2012. http://www.theses.fr/2012GRENM006/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Le concept de réversibilité est ancien, mais il soulève de nos jours beaucoup d'intérêt. Il est en effet exploité dans de nombreux domaines tels que la conception de circuits, le débogage et le test de programmes, la simulation et l'informatique quantique. L'idée d'un modèle de programmation réversible peut se montrer particulièrement intéressante pour la construction de systèmes sûrs de fonctionnement, ne serait-ce que parce que plusieurs techniques connues pour la construction de tels systèmes exploitent une forme ou une autre de retour en arrière ou de reprise. Nous poursuivons dans cette thèse l'étude entreprise avec CCS réversible par Vincent Danos et Jean Krivine, en définissant un pi-calcul d'ordre supérieur réversible (rhopi). Nous prouvons que le modèle obtenu est causalement cohérent, et que l'on peut encoder fidèlement rhopi dans une variante du pi-calcul d'ordre supérieur. Nous définissons également une primitive de reprise à grain fin qui permet de contrôler le retour en arrière dans une exécution concurrente. Nous spécifions formellement la sémantique de cette primitive, et nous montrons qu'elle possède de bonnes propriétés, y compris en présence d'opérations de reprise concurrentes. Enfin nous définissons un algorithme concurrent implantant cette primitive de reprise et ous montrons que cet algorithme respecte la sémantique définie
Reversible computing has a long history. Nowadays, reversible computing is attracting increasing interest because of its potential applications in diverse fields, including hardware design, biological modelling, program debugging and testing and quantum computing. Of particular interest is the application of reversible computation notions to the study of programming abstractions for dependable systems, because several techniques used to build dependable systems rely on some forms of undo or rollback. We continue, in this thesis, the study undertaken on reversible CCS by Vincent Danos and Jean Krivine, by defining a reversible higher-order pi-calculus (rhopi). We prove that reversibility in our calculus is causally consistent and that one can encode faithfully rhopi into a variant of HOpi. Moreover we design a fine-grained rollback primitive able to control the rollback of a concurrent execution. We give a formal specification of this primitive and show that it enjoys good properties, even in presence of concurrent conflicting rollbacks. We then devise a concurrent algorithm implementing such primitive and show that the algorithm respects the defined semantics
42

Dowek, Gilles. "Demonstration automatique dans le calcul des constructions." Paris 7, 1991. http://www.theses.fr/1991PA077227.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Le calcul des constructions est une extension de la logique d'ordre superieur dans laquelle le langage des termes est un lambda-calcul type comprenant des types dependants, des types polymorphes et des constructeurs de type. La richesse de ce systeme de type permet, en se basant sur la semantique de heyting et l'isomorphisme de curry-howard, de representer les preuves par des termes. La puissance calculatoire de ce systeme en fait egalement un outil bien adapte au raisonnement sur des programmes et a la preuve de leur correction. La demonstration automatique dans un systeme logique est l'etude des methodes qui partant d'une proposition en construisent automatiquement une preuve. Dans la premiere partie de cette these nous developpons une telle methode pour le calcul des constructions. Cette methode s'inscrit dans la lignee de celles developpees par robinson pour la logique du premier ordre et huet pour la logique d'ordre superieur sous le nom de resolution. En ce qui concerne la demonstration automatique, la nouveaute qu'apportent les systemes de types, tels que le calcul des constructions, par rapport aux systemes logiques precedents concerne le role respectif de la resolution et de l'unification. Au premier ordre et a l'ordre superieur resolution et unification sont separees. Dans les systemes de types, ou termes et preuves sont de meme nature, resolution et unification se melent en un algorithme unique. Dans la seconde partie de cette these nous etudions les problemes de resolution d'equations dans le calcul des constructions et certaines de ses restrictions. Tout d'abord nous montrons que l'algorithme de synthese de preuves de la premiere partie peut etre utilise comme algorithme d'unification, ou plus exactement comme algorithme d'unification fermee. Ensuite nous etudions les cas particuliers decidables et indecidables de l'unification. Nous montrons que dans le calcul des constructions, comme dans le lambda-calcul simplement type, le filtrage du second ordre est decidable. Nous montrons egalement que le filtrage d'ordre superieur est indecidable dans tous les calculs qui comportent des types dependants, des types polymorphes, des constructeurs de types ou des types inductifs
43

Rouyer, Joseph. "Développements d'algorithmes dans le calcul des constructions." Vandoeuvre-les-Nancy, INPL, 1994. http://www.theses.fr/1994INPL042N.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Le calcul des constructions est d'abord un lambda-calcul type d'ordre supérieur avec polymorphisme et types dépendants. La forte normalisation de ce lambda-calcul a été prouvée par Thierry Coquand qui en a fait un langage logique d'ordre supérieur permettant de coder la logique naturelle intuitionniste. Il en a démontré la cohérence et en a réalisé les premières implantations. Ce calcul des constructions initial a été enrichi (à la suite des travaux de Christine Paulin-Mohring) par de nouvelles sortes puis par les types inductifs et un procédé d'extraction de programmes. C'est dans l'implantation v5. 8 de cette dernière version que nous avons développé un algorithme d'unification au premier ordre (celui de Robinson), puis deux algorithmes de recherche de recouvrements connexes d'un graphe pondère, celui de Prim et celui de Kruskal. Ces algorithmes ont été entièrement synthétises. Il ne s'agit pas de simples preuves de programmes. Le revers de la médaille est que les programmes que l'on extrait de ces preuves contiennent des calculs provenant de la preuve de terminaison qui ne servent pas dans la construction du résultat. Pour l'algorithme d'unification nous montrons de deux manières comment, en réalisant un axiome d'induction non structurelle, on peut réduire au maximum les traces de la preuve de terminaison
44

Pomeransky, Andrei A. "Intrication et imperfections dans le calcul quantique." Toulouse 3, 2004. http://www.theses.fr/2004TOU30132.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
L'information quantique est un nouveau domaine de la physique, qui consiste à employer les systèmes quantiques dans le calcul et la transmission de l'information. Les ordinateurs quantiques utilisent les lois de la mécanique quantique pour exécuter des calculs d'une manière bien plus efficace que les ordinateurs existants. Les ordinateurs quantiques seraient influencés par des perturbations diverses. Nous étudions, dans les cas de deux calculs quantiques très différents, l'efficacité des ordinateurs quantiques en présence d'imperfections statiques. Une des raisons fondamentales de l'efficacité extraordinaire de l'ordinateur quantique est l'effet de l'intrication quantique. Dans cette thèse nous étudions certaines propriétés importantes d'une certaine mesure quantitative d'intrication largement utilisée. Nous considérons également l'entropie informationnelle moyenne des états quantiques, puis nous trouvons une expression explicite pour cette quantité et étudions ses propriétés les plus importantes
Quantum information is a new domain of physics, which studies the applications of quantum systems to the computation and to the information transmission. The quantum computers use the lows of quantum mechanics to perform the calculations much more efficiently than all currently existing computers can. The quantum computers will be influenced by all kinds of perturbations. We study, in the case of two very different quantum computations, the efficiency of the quantum computers in the presence of the static imperfections. One of the fundamental reasons of the extraordinary efficiency of the quantum computers is the effect of quantum entanglement. In the present thesis we study certain important properties of a widely used quantitative measure of entanglement. We consider also the average informational entropy of quantum states, find an explicit expression for this quantity and study some its most important properties
45

Herrmann, Samuel. "Calcul asymptotique lié à l'étude de certains processus stochastiques." Habilitation à diriger des recherches, Université Henri Poincaré - Nancy I, 2009. http://tel.archives-ouvertes.fr/tel-00591974.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Ce document de synthèse présente différents travaux de recherche centrés sur le comportement asymptotique de processus stochastiques. Ces travaux analysent des équations différentielles stochastiques ou des systèmes d'EDS dirigés par des mouvements browniens. Ils font effectivement appel au calcul asymptotique: dans les questions posées, il s'agit bien souvent de considérer la limite d'un paramètre du système dynamique. Cela peut être: le coefficient de diffusion qui tend vers $0$, le temps qui croît à l'infini, le nombre de particules dans un système de particules en interaction qui tend vers l'infini, le pas de temps d'une marche aléatoire qui tend vers $0$. Les techniques utilisées sont donc spécifiques à ces passages à la limite: grandes déviations, estimation d'intégrales par la méthode de Laplace, limite de McKean-Vlasov, propagation du chaos, critère de tension des lois de processus, décomposition spectrale des semi-groupes.
46

Guise, Élaine de. "Le rôle du corps calleux dans la mémoire procédurale et la mémoire de travail." Thesis, National Library of Canada = Bibliothèque nationale du Canada, 1999. http://www.collectionscanada.ca/obj/s4/f2/dsk1/tape10/PQDD_0021/NQ43708.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
47

Madet, Antoine. "Complexité implicite dans des Lambda -calculs concurrents." Paris 7, 2012. http://www.theses.fr/2012PA077222.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Contrôler la consommation en ressources des programmes informatiques est d'importance capitale, non seulement pour des raisons de performance, mais aussi pour des questions de sécurité quand par exemple certains systèmes mobiles ou embarqués disposent de quantités limitées de ressources. Dans cette thèse, nous développons des critères statiques pour contrôler la consommation en ressources de programmes concurrents d'ordre supérieur. Nous prenons comme point de départ le cadre des Logiques Light qui a été étudié afin de contrôler la complexité de programmes fonctionnels d'ordre supérieur au moyen de la correspondance preuves-programmes. La contribution de cette thèse est d'étendre ce cadre aux programmes concurrents d'ordre supérieur. Plus généralement, cette thèse s'inscrit dans le domaine de la complexité implicite qui cherche à caractériser des classes de complexité par des principes logiques ou des restrictions de langage. Les critères que nous proposons sont purement syntaxiques et sont développés graduellement afin de contrôler le temps de calcul des programmes de plus en plus finement: dans un premier temps nous montrons comment garantir la terminaison des programmes (temps fini), puis nous montrons comment garantir la terminaison des programmes en temps élémentaire, et enfin nous montrons comment garantir la terminaison des programmes en temps polynomial. Nous introduisons également des systèmes de types tels que les programmes bien typés terminent en temps borné et retournent des valeurs. Enfin, nous montrons que ces systèmes de types capturent des programmes concurrents intéressants qui itèrent des fonctions produisant des effets de bord sur des structures de données inductives. Dans la dernière partie, nous étudions une méthode sémantique alternative afin de contrôler la consommation en ressources de programmes impératifs d'ordre supérieur. Cette méthode est basée sur la réalisabilité quantitative de Dal Lago et Hofmann et permet d'obtenir plusieurs bornes de complexité de manière uniforme. Cette dernière partie est un travail en collaboration avec Aloïs Brunel
Controlling the resource consumption of programs is crucial: besides performance reasons, it has many applications in the field of computer security where e. G. Mobile or embedded Systems dispose of limited amounts of resources. In this thesis, we develop static criteria to control the resource consumption of higher-order concurrent programs. Our starting point is the framework of Light Logics which has been extensively studied to control the complexity of higher-order functional programs through the proofs-as-programs correspondent. The contribution of this thesis is to extend this framework to higher-order concurrent programs. More generally, this thesis fits in the research field of Implicit Computational Complexity which aims at characterizing complexity classes by logical principles or language restrictions. The criteria that we propose are purely syntactic and are developed gradually to control the computational time of programs in a finer and finer way: first, we show how to guarantee the termination of programs (finite time); then, we show how to guarantee the termination of programs in elementary time and last, we show how to guarantee the termination of programs in polynomial time. We also introduce type Systems so that well-typed programs are guaranteed to terminate in bounded time and to return values. Finally, we show that the type Systems capture some interesting concurrent programs that iterate functions producing side effects over inductive data structures. In the last part, we study an alternative semantic method to control the resource consumption of higher-order imperative programs. The method is based on Dal Lago and Hofmann's quantitative realizability framework and allows to obtain various complexity bounds in a uniform way. This last par is joint work with Aloïs Brunel
48

Möller, Nathalie. "Adaptation de codes industriels de simulation en Calcul Haute Performance aux architectures modernes de supercalculateurs." Thesis, Université Paris-Saclay (ComUE), 2019. http://www.theses.fr/2019SACLV088.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Durant de longues années, la stabilité dans le paradigme d'architecture a facilité la portabilité de performance des grands codes en Calcul de Haute Performance d'une génération à l'autre de supercalculateurs.L'effondrement programmé de la loi de Moore - qui règle les progrès en gravure des micro-processeurs - bouscule ce modèle et requiert un effort nouveau du côté logiciel.Une modernisation des codes basée sur une algorithmique adaptée aux futurs systèmes est ainsi nécessaire.Cette modernisation repose sur des principes de base connus tels que la concurrence des calculs et la localité des données.Cependant, la mise en œuvre de ces principes dans le cadre d'applications réelles en milieu industriel – lesquelles applications sont souvent le fruit d’années d’efforts de développement - s’avère bien plus compliquée que ne le laissait prévoir leur simplicité apparente.Les contributions de cette thèse sont les suivantes :D’une part, nous explorons une méthodologie de modernisation de codes basée sur l’utilisation de proto-applications et la confrontons à une approche directe, en optimisant deux codes de simulation dévéloppés dans un contexte similaire.D’autre part, nous nous concentrons sur l’identification des principaux défis concernant l’adéquation entre applications, modèles de programmation et architectures.Les deux domaines d'application choisis sont la dynamique des fluides et l'électromagnétisme
For many years, the stability of the architecture paradigm has facilitated the performance portability of large HPC codes from one generation of supercomputers to another.The announced breakdown of the Moore's Law, which rules the progress of microprocessor engraving, ends this model and requires new efforts on the software's side.Code modernization, based on an algorithmic which is well adapted to the future systems, is mandatory.This modernization is based on well-known principles as the computation concurrency, or degree of parallelism, and the data locality.However, the implementation of these principles in large industrial applications, which often are the result of years of development efforts, turns out to be way more difficult than expected.This thesis contributions are twofold :On the one hand, we explore a methodology of software modernization based on the concept of proto-applications and compare it with the direct approach, while optimizing two simulation codes developed in a similar context.On the other hand, we focus on the identification of the main challenges for the architecture, the programming models and the applications.The two chosen application fields are the Computational Fluid Dynamics and Computational Electro Magnetics
49

Aoyagi, Risa. "Péripéties proustiennes dans A la recherche du temps perdu : entre mémoire volontaire et mémoire involontaire." Paris 3, 2004. http://www.theses.fr/2004PA030012.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Située dans le corps même de l'intrigue, la genèse de l'œuvre, ou l'hypertexte, la péripétie, déjà soulignée dans la mémoire involontaire, joue un rôle crucial dans la mémoire volontaire. Introduite dans les univers des artistes (Baudelaire, Botticelli, Vermeer, Manet) qui nourrissent À la recherche du temps perdu, elle est l'instrument de leur recréation, telle la passante de Baudelaire. Affectant les détails réalistes du quotidien (la date impossible de Pâques, la ligne surchargée du train d'une heure vingt-deux), elle traduit la transposition du réel au service de la révélation de l'esthétique de l'écrivain. Ainsi consubstantielle aux deux types de mémoire dont elle signe l'étroite parenté, la péripétie constitue la clef de voûte de la mai͏̈eutique proustienne
Lying in the body itself of the intrigue of Remembrance of things past of Marcel Proust, in the genesis of the work or in the subtext, the peripetia which is already stressed in involuntary memory plays a crucial role in voluntary memory. Introduced into the universes of artists which nourish the work (Baudelaire, Botticelli, Vermeer, Manet), the peripetia is the instrument for their recreation, as the passer-by of Baudelaire shows it. Receiving realistic daily details (the impossible date of Easter, the overloaded line of one twenty-two train), the peripetia renders the transposition of the real to serve to reveal the aesthetics of the writer. Common to the two types of memory, the peripetia represents their close kinship and constitutes the keystone of the Prousian maieutics
50

Llorca, Iris. "Mémoire vécue, mémoire du texte : les correspondances intertextuelles dans les Chants Orphiques de Dino Campana." Paris 3, 2007. http://www.theses.fr/2007PA030158.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les intertextualités reflètent chez Dino Campana (1885-1932) les échanges perpétuels avec les poètes français de la seconde moitié du XIX° siècle : Mallarmé, Rimbaud, Nerval, Verlaine et Baudelaire ; et la tradition italienne incarnée par Dante. Dans l’unique recueil de Dino Campana, Canti Orfici (1914), étudier les intertextualités et leurs utilisations implique de s’interroger sur le degré d'imprégnation de ces correspondances intertextuelles dans l'écriture de Campana. La dimension mémorielle qui s'y rattache comprend au moins deux champs de recherche : le souvenir littéraire –la mémoire de la littérature- se rattache directement à l’étude des intertextualités : citations, références, similitudes, imitations, correspondances thématiques ; le souvenir des choses vécues, lui-même transformé en texte (en prose et en vers), se retrouve dans le vers d'un poète, dans la couleur d'un tableau de peintre. Par ailleurs, le souvenir du premier manuscrit perdu de Campana (Il più lungo giorno - 1913-) qu’il a décidé de réécrire, selon la légende, « par coeur », permet d’élucider comment le poète a reconstruit sa poésie par rapport, non seulement à ses carnets qu'il a conservé, mais également aux nouveautés littéraires et artistiques survenues entre la perte du manuscrit et sa réécriture
The intertextualities shows in Dino Campana (1885-1932) the perpetual exchanges with the French poets of the second half of the 19th century: Mallarmé, Rimbaud, Nerval, Verlaine et Baudelaire ; and their Italian tradition embodied by Dante. In the unique collection of Dino Campana, Canti Orfici (1914), the study of the intertextualities and their use requires reflexion on their degree of imprinting in the intertextual correspondences written by Campana. The memory analysis linked to it contains at least two axis of research: the literal souvenir – literature from memory- is linked directly to the intertextual studies: quotations, references, similarities, imitations, correspondences with the same themes ; the personal or lived experiences, transformed in text (in prose and in verse), is found in the verses of the poet, in the colour of a painter’s work of art. Besides, the souvenir of the first manuscript lost by Campana (Il più lungo giorno –1913-) that he decided to rewrite, according to the legend, « by heart », allows to clarify how the poet reconstructed his poetry in relation, not only in this note books which he kept, but also in the literary and artistic novelties arisen between the loss of the manuscript and its rewriting

To the bibliography