Dissertationen zum Thema „Diffusion de l’information“

Um die anderen Arten von Veröffentlichungen zu diesem Thema anzuzeigen, folgen Sie diesem Link: Diffusion de l’information.

Geben Sie eine Quelle nach APA, MLA, Chicago, Harvard und anderen Zitierweisen an

Wählen Sie eine Art der Quelle aus:

Machen Sie sich mit Top-17 Dissertationen für die Forschung zum Thema "Diffusion de l’information" bekannt.

Neben jedem Werk im Literaturverzeichnis ist die Option "Zur Bibliographie hinzufügen" verfügbar. Nutzen Sie sie, wird Ihre bibliographische Angabe des gewählten Werkes nach der nötigen Zitierweise (APA, MLA, Harvard, Chicago, Vancouver usw.) automatisch gestaltet.

Sie können auch den vollen Text der wissenschaftlichen Publikation im PDF-Format herunterladen und eine Online-Annotation der Arbeit lesen, wenn die relevanten Parameter in den Metadaten verfügbar sind.

Sehen Sie die Dissertationen für verschiedene Spezialgebieten durch und erstellen Sie Ihre Bibliographie auf korrekte Weise.

1

Senn, Juliette. „L’information comptable à caractère environnemental dans un cadre réglementaire : de la diffusion à l’utilisation de l’information“. Thesis, Montpellier, 2018. http://www.theses.fr/2018MONTD029.

Der volle Inhalt der Quelle
Annotation:
Les années récentes ont été marquées par le renforcement des réglementations en matière de diffusion de l’information sociale et environnementale. Cette thèse s’intéresse à l'information comptable à caractère environnemental (ICE) dans ce contexte en pleine évolution. Elle s’inscrit dans le cadre d’analyse de la théorie néo-institutionnelle et porte sur la notion de normativité. Trois études empiriques, traitant pour chacune d’elle une dimension du processus de diffusion de l’information sont menées. Elles sont toutes trois réalisées dans le cadre réglementaire français. Le premier article identifie comment les entreprises renseignent l’ICE et les stratégies qui en découlent face à la publication d'une nouvelle loi générale. À partir d’une analyse de contenu des rapports annuels de 96 sociétés cotées sur la période 2009-2014, les résultats montrent que l’introduction de la loi n’a pas favorisé une plus grande transparence dans l’ICE et l’on observe que les firmes qui y sont soumises choisissent différentes réponses. Le deuxième article se focalise sur les coulisses de ces stratégies de publication afin d'examiner la manière dont les producteurs de l’information s’organisent pour répondre aux règlementations auxquelles ils sont soumis. Les résultats d’une étude de 8 cas multiples montrent que deux stratégies distinctes apparaissent en fonction du type d'ICE. Le troisième article s’attache finalement à observer le comportement des utilisateurs de l’information financière en réaction aux stratégies de diffusion déployées par les entreprises. Nous observons l’évolution de leurs recommandations d’investissement et leurs perceptions quant à l’utilité perçue et la crédibilité accordée à l’ICE. À travers une étude expérimentale menée auprès de 145 participants, il s’avère que ces stratégies modifient la perception de l’utilité et de la crédibilité de cette information. L’ensemble de ces résultats contribue à la compréhension de la manière dont les entreprises (et les acteurs) développent des stratégies pour s’adapter à l’introduction de nouvelles réglementations
Corporate environmental reporting is becoming more and more widespread and regulated. This dissertation specifically focuses on environmental accounting information (EAI) in this context. Our research draws on neo-institutional theory and concerns the concept of normativity. Three empirical studies, each dealing with one dimension of the information disclosure process, are conducted. They are all carried out in the French regulatory context. The first study examines how companies disclose EAI and the strategies adopted after the adoption of a new law. Based on a content analysis of the annual reports of 96 listed companies over the period 2009-2014, the results show that the law did not favor greater transparency in the EAI and we observe that companies choose different reponses to the law. The second study focuses on behind the scenes of these strategies to identify how producers of information organize themselves to respond to the regulations they are subject to. The results of 8 case studies show that two distinct strategies appear depending on the type of EAI. The third study focuses on the users of information behavior and how they react to the firms’ disclosure strategies. We consider the point of view of financial analysts by investigating the effect of firms’ EAI disclosure strategies on investment recommendations and perceptions of this item (as regards to both the relevance and credibility of information). Through an experimental study conducted with 145 participants, it turned out that these strategies modify both the perception of relevance and credibility of information. Overall, the dissertation contributes to our understanding of how companies (and actors) develop strategies to adapt to the introduction of new regulations
APA, Harvard, Vancouver, ISO und andere Zitierweisen
2

Guille, Adrien. „Diffusion de l’information dans les médias sociaux : modélisation et analyse“. Thesis, Lyon 2, 2014. http://www.theses.fr/2014LYO22015/document.

Der volle Inhalt der Quelle
Annotation:
Les médias sociaux ont largement modifié la manière dont nous produisons, diffusons et consommons l'information et sont de fait devenus des vecteurs d'information importants. L’objectif de cette thèse est d’aider à la compréhension du phénomène de diffusion de l’information dans les médias sociaux, en fournissant des moyens d’analyse et de modélisation.Premièrement, nous proposons MABED, une méthode statistique pour détecter automatiquement les évènements importants qui suscitent l'intérêt des utilisateurs des médias sociaux à partir du flux de messages qu'ils publient, dont l'originalité est d'exploiter la fréquence des interactions sociales entre utilisateurs, en plus du contenu textuel des messages. Cette méthode diffère par ailleurs de celles existantes en ce qu'elle estime dynamiquement la durée de chaque évènement, plutôt que de supposer une durée commune et fixée à l'avance pour tous les évènements. Deuxièmement, nous proposons T-BASIC, un modèle probabiliste basé sur la structure de réseau sous-jacente aux médias sociaux pour prédire la diffusion de l'information, plus précisément l'évolution du volume d'utilisateurs relayant une information donnée au fil du temps. Contrairement aux modèles similaires également basés sur la structure du réseau, la probabilité qu'une information donnée se diffuse entre deux utilisateurs n'est pas constante mais dépendante du temps. Nous décrivons aussi une procédure pour l'inférence des paramètres latents du modèle, dont l'originalité est de formuler les paramètres comme des fonctions de caractéristiques observables des utilisateurs. Troisièmement, nous proposons SONDY, un logiciel libre et extensible implémentant des méthodes tirées de la littérature pour la fouille et l'analyse des données issues des médias sociaux. Le logiciel manipule deux types de données : les messages publiés par les utilisateurs, et la structure du réseau social interconnectant ces derniers. Contrairement aux logiciels académiques existants qui se concentrent soit sur l'analyse des messages, soit sur l'analyse du réseau, SONDY permet d'analyser ces deux types de données conjointement en permettant l'analyse de l'influence par rapport aux évènements détectés. Les expérimentations menées à l'aide de divers jeux de données collectés sur le média social Twitter démontrent la pertinence de nos propositions et mettent en lumière des propriétés qui nous aident à mieux comprendre les mécanismes régissant la diffusion de l'information. Premièrement, en comparant les performances de MABED avec celles de méthodes récentes tirées de la littérature, nous montrons que la prise en compte des interactions sociales entre utilisateurs conduit à une détection plus précise des évènements importants, avec une robustesse accrue en présence de contenu bruité. Nous montrons également que MABED facilite l'interprétation des évènements détectés en fournissant des descriptions claires et précises, tant sur le plan sémantique que temporel. Deuxièmement, nous montrons la validité de la procédure proposée pour estimer les probabilités de diffusion sur lesquelles repose le modèle T-BASIC, en illustrant le pouvoir prédictif des caractéristiques des utilisateurs sélectionnées et en comparant les performances de la méthode d'estimation proposée avec celles de méthodes tirées de la littérature. Nous montrons aussi l'intérêt d'avoir des probabilités non constantes, ce qui permet de prendre en compte dans T-BASIC la fluctuation du niveau de réceptivité des utilisateurs des médias sociaux au fil du temps. Enfin, nous montrons comment, et dans quelle mesure, les caractéristiques sociales, thématiques et temporelles des utilisateurs affectent la diffusion de l'information. Troisièmement, nous illustrons à l'aide de divers scénarios l'utilité du logiciel SONDY, autant pour des non-experts, grâce à son interface utilisateur avancée et des visualisations adaptées, que pour des chercheurs du domaine, grâce à son interface de programmation
Social media have greatly modified the way we produce, diffuse and consume information, and have become powerful information vectors. The goal of this thesis is to help in the understanding of the information diffusion phenomenon in social media by providing means of modeling and analysis.First, we propose MABED (Mention-Anomaly-Based Event Detection), a statistical method for automatically detecting events that most interest social media users from the stream of messages they publish. In contrast with existing methods, it doesn't only focus on the textual content of messages but also leverages the frequency of social interactions that occur between users. MABED also differs from the literature in that it dynamically estimates the period of time during which each event is discussed rather than assuming a predefined fixed duration for all events. Secondly, we propose T-BASIC (Time-Based ASynchronous Independent Cascades), a probabilistic model based on the network structure underlying social media for predicting information diffusion, more specifically the evolution of the number of users that relay a given piece of information through time. In contrast with similar models that are also based on the network structure, the probability that a piece of information propagate from one user to another isn't fixed but depends on time. We also describe a procedure for inferring the latent parameters of that model, which we formulate as functions of observable characteristics of social media users. Thirdly, we propose SONDY (SOcial Network DYnamics), a free and extensible software that implements state-of-the-art methods for mining data generated by social media, i.e. the messages published by users and the structure of the social network that interconnects them. As opposed to existing academic tools that either focus on analyzing messages or analyzing the network, SONDY permits the joint analysis of these two types of data through the analysis of influence with respect to each detected event.The experiments, conducted on data collected on Twitter, demonstrate the relevance of our proposals and shed light on some properties that give us a better understanding of the mechanisms underlying information diffusion. First, we compare the performance of MABED against those of methods from the literature and find that taking into account the frequency of social interactions between users leads to more accurate event detection and improved robustness in presence of noisy content. We also show that MABED helps with the interpretation of detected events by providing clearer textual description and more precise temporal descriptions. Secondly, we demonstrate the relevancy of the procedure we propose for estimating the pairwise diffusion probabilities on which T-BASIC relies. For that, we illustrate the predictive power of users' characteristics, and compare the performance of the method we propose to estimate the diffusion probabilities against those of state-of-the-art methods. We show the importance of having non-constant diffusion probabilities, which allows incorporating the variation of users' level of receptivity through time into T-BASIC. We also study how -- and in which proportion -- the social, topical and temporal characteristics of users impact information diffusion. Thirdly, we illustrate with various scenarios the usefulness of SONDY, both for non-experts -- thanks to its advanced user interface and adapted visualizations -- and for researchers -- thanks to its application programming interface
APA, Harvard, Vancouver, ISO und andere Zitierweisen
3

Karam, Arzé. „Révélation de l’information des analystes et tenue de marché sur le NASDAQ“. Thesis, Paris 10, 2010. http://www.theses.fr/2010PA100110.

Der volle Inhalt der Quelle
Annotation:
Cette thèse examine l’impact du comportement des teneurs de marché informés sur le NASDAQ dans le cas où teneurs et analystes sont affiliés à la même banque d’investissement. L’objectif est de tester les hypothèses des modèles existants quant au rôle des teneurs informés dans la diffusion de l’information et sur l’impact que leur comportement peut avoir sur la qualité de marché en utilisant des modèles économétriques sophistiqués. En outre, la thèse aborde empiriquement la problématique de l’anonymat et examine le rôle de l’identifiant SIZE dans la formation des prix autour de l’annonce publique de l’analyste affilié et en intra-journalier. Cette composante, nommée à présent NSDQ, permet aux teneurs de coter anonymement leurs prix dans le carnet. Les résultats montrent qu’avant l’annonce la fourchette agrégée est moins faible quand analystes et teneurs sont liés ; et, les parts informationnelles des cotations identifiées sont plus importantes relativement à celles cotées sous SIZE. En intra-journalier, les cotations sous SIZE sont abondantes quand les conditions de marché changent. Le sujet présente un intérêt sur le plan institutionnel et pratique. En effet, la SEC est favorable à la réglementation de l’information et à l’augmentation de la transparence des marchés. Cependant, les résultats de la thèse suggèrent qu’un accès privilégié aux teneurs peut rendre l’environnement d’échange moins coûteux et donc améliorer la qualité de ce marché. Par ailleurs, l’anonymat pré-transactionnel permet aux teneurs de mieux gérer le risque d’anti-sélection en présence des investisseurs informés au cours de la journée
This dissertation focuses on the impact of informed market makers’ behavior on NASDAQ, where some market makers may possess information from their analysts affiliated to the same brokerage firm. The motivation for this research is driven by the fact that the extant literature is yet to provide a satisfactory explanation for the impact of informed market making on market quality. The dissertation uses state-of-the-art econometric modeling to perform comprehensive empirical tests of the existing theory on the subject. It addresses also the issue of pre-trade anonymity by examining the role of SIZE around the analyst report and in intraday analysis. This feature, presently named NSDQ, provides market makers the possibility to hide their identifiers while quoting on the book. The results show that the inside spread prior the announcement is lower in case of affiliation; and, the non anonymous quotes contribute the most in terms of information shares relative to SIZE quotes prior the announcement of the affiliated analyst report. In intraday analysis, SIZE quotes vary with market conditions throughout the day. The findings from this dissertation have implications for market design. The SEC’s stated position is that information regulation and increased transparency are fundamental to market fairness. However, the results suggest that the environment of significant information sharing presents lower trading costs and thus better market quality. Further, the option to quote anonymously gives market makers the ability to protect themselves from informed traders throughout the day
APA, Harvard, Vancouver, ISO und andere Zitierweisen
4

Plot-Vicard, Emmanuelle. „L’information diffusée par l’exploitant sur le risque nucléaire : quelle réponse aux attentes des parties prenantes ?“ Paris 9, 2010. https://bu.dauphine.psl.eu/fileviewer/index.php?doc=2010PA090009.

Der volle Inhalt der Quelle
Annotation:
L’objectif de cette thèse est de savoir s’il existe des écarts entre les attentes des parties prenantes et l’information diffusée par l’exploitant sur le risque nucléaire dans son rapport annuel. Dans un premier temps, je m’interroge sur les motifs qui conduisent les entreprises à diffuser des informations environnementales, en combinant les théories de la légitimité et des parties prenantes. Je dresse ensuite le constat que la comptabilité financière ne permet pas de rendre compte de l’ensemble du risque nucléaire. En particulier, les traductions comptables (provision et passif éventuel) n’intègrent pas les risques de survenance incertaine et aux dommages éventuels élevés, comme le risque d’accident nucléaire. En conséquence, cette thèse élargit le champ d’analyse au-delà des états financiers pour englober l’ensemble des informations diffusées par l’exploitant dans son rapport annuel. Dans un second temps, je conduis une étude pour déterminer les attentes des parties prenantes en matière d’informations sur le risque nucléaire, puis confronte ces attentes aux informations diffusées par les exploitants dans leur rapport annuel. Deux mesures complémentaires me permettent d’analyser cette information. La première mesure, à vocation descriptive, indique que seulement 7 % de l’information diffusée sur le risque nucléaire dans les rapports annuels est une information chiffrée, visible pour le lecteur et traitant d’objectifs précis ou d’actions menées par les exploitants. La deuxième mesure traite de la qualité de l’information. Elle suggère que de nombreuses informations souhaitées par les parties prenantes ne sont pas diffusées. Au total, les attentes des parties prenantes régulatrices, financières et, dans une moindre mesure, médiatiques semblent satisfaites tandis que celles des associations du secteur le seraient très imparfaitement
The objective of this research is to know if there are distances between the expectations of the stakeholders and the information disclosed by the firm on the nuclear risk in its annual report. First of all, I wonder about the motives which lead companies to disclose environmental information, by associating the theories of the legitimacy and the stakeholders. I notice then the report which the financial accounting does not allow to report the whole nuclear risk. In particular, accounting (provision and contingent liability) does not integrate the risks of uncertain occurrence with important possible damages, as the risk of nuclear accident. Consequently, this research widens the field of analysis beyond financial status to contain all the information disclosed by the firm in its annual report. I determine the expectations of the stakeholders in information on the nuclear risk, then confront these expectations with the information disclosed by the firms in their annual report. Two additional measures allow me to analyze this information. The first one which describes the information indicates that only 7% of the disclosed information about the nuclear risk in annual reports is quantitative visible information for the reader and dealing with precise objectives or with concrete programs led by the firms. The second measure deals with the quality of the information. It suggests that a lot of information wished by the stakeholders is not disclosed. All in all, the expectations of the regulating, financial and media stakeholders seem satisfied but those of the stakeholders of the environmental lobby groups would not be
APA, Harvard, Vancouver, ISO und andere Zitierweisen
5

Oumarou, Mahamane Laouali. „Technologie de l’information et de la communication et développement économique : les enjeux et les opportunités au Niger“. Thesis, Paris 10, 2011. http://www.theses.fr/2011PA100231.

Der volle Inhalt der Quelle
Annotation:
Le Niger est un pays enclavé d’Afrique de l’Ouest. Son positionnement à la périphérie des pôles essentiels de la sous région explique en partie son retard de développement. A cela, s’ajoute, un nouveau retard, qualifié de fracture numérique. Son parc d’infrastructures vétuste ne lui permet pas de profiter des flux mondiaux d’information pour bénéficier des avantages de la compétitivité de la nouvelle société de l’information. Sous l’impulsion de récents débats internationaux sur les nouvelles technologies, il apparaît que le développement économique du Niger nécessiterait une appropriation des TIC par la population. Dès lors, ces nouvelles technologies de l’information sont à l’épicentre des questions de développement qui se posent au Niger. Cette recherche s’est donnée le but d’analyser le système actuel des TIC au Niger et sa capacité à enclencher le développement économique dans un contexte de mondialisation des économies fondé sur l’information et la connaissance grâce à l’usage des TIC. Elle examine en premier lieu, le potentiel des ressources techniques, humaines et des plans et politiques gouvernementaux en matière des TIC, à l’échelle territoriale. A la suite de cette analyse et des questionnements qu’elle pose, des théories économiques ont émergé : l’économie de l’information et ses dérivées. En second lieu, cette étude explore, décrit, explique, interprète et illustre ces théories dans un contexte d’accès aux TIC. Les exemples illustratifs montrent que les TIC corrigent certaines de ces prédictions. Elles améliorent le capital humain, affinent les anticipations des agents et réduisent le risque des décisions économiques. C’est en cela que les TIC peuvent être considérées comme un facteur de développement économique au Niger. Dans cette révolution des NTIC, les économies n’ont nécessairement pas besoin de passer par l’étape de l’industrialisation comme à l’ancienne. L’exemple de la Chine et des dragons asiatiques le témoigne
Niger is a landlocked country in West Africa. Its position on the outskirts of essential poles in the under-region partly explains its delayed development. To this is added, a further delay, called digital divide. Its fleet of obsolete infrastructure does not allow it to take full advantage of global flows of information to take advantage of the competitiveness of the new information society. Spurred on by recent international discussions on new technologies, it appears that the economic development of Niger would require an appropriation of ICTs by the population. Therefore, these new information technologies are at the epicenter of development issues facing the Niger. This research was given the objective to analyze the current system of ICT in Niger and its ability to set off economic development in a context of globalization of economies based on information, knowledge and expertise, by using ICTs. Following this analysis and the questions it poses, some economic theories have emerged, the information economy and its derivatives. In the second time, this study explores, describes, explains, interprets and illustrates these theories in the context of ICTs access. Illustrative examples show that ICT correct some of these predictions. ICT improves human capital, refine agents' anticipations and reduce the risk of economic decisions. That’s why, ICTs can be considered as an economic development factor in Niger. In this revolution of new technologies, the economies have not necessarily need to go through the stage of industrialization as the old theories. The example of China and the Asian dragons shows that
APA, Harvard, Vancouver, ISO und andere Zitierweisen
6

Mekinda, Mengue Leonce. „Mécanismes de cache, traitement et diffusion de l'information dans les réseaux centrés sur l'information (ICN)“. Thesis, Paris, ENST, 2016. http://www.theses.fr/2016ENST0075/document.

Der volle Inhalt der Quelle
Annotation:
Ce travail de thèse s’est tout d’abord attaché à comprendre comment la prise en compte du temps de téléchargement, autrement dit, de la latence, lors de la mise en cache ou de la transmission de données pouvait contribuer aux performances du téléchargement dans les réseaux de caches dont ICN. Nous y introduisons un mécanisme distribué novateur qui décide de l’opportunité de conserver un objet en considérant que plus il a été long à télécharger plus intéressant il semble de le soumettre au cache sous-jacent. Nous montrons que ce nouveau mécanisme surpasse en de nombreux points l’état de l’art, que ce soit du point de vue de la réduction du temps moyen de téléchargement à partir de caches LRU, et de son écart-type (jusqu’à −60% ), que de celui de la vitesse de convergence vers ceux-ci. Dans une seconde phase, nous avons optimisé conjointement les fonctions de mises en cache et de distribution multi-chemin de requêtes de contenus. Troisièmement, nous avons étudié l’équité vis-à-vis des contenus au sein des réseaux de caches et plus particulièrement, d’ICN. Il en ressort que seule suffit une allocation équitable de la bande passante entre les contenus pour que l’équité d’ICN soit complète. Notre dernière contribution vise à aider au passage à l’échelle d’ICN dans contexte où deviennent réalités l’Internet des Objets et son espace de nommage illimité. Nous avons proposé une approche nouvelle au routage dans les réseaux centrés sur l’information, nommée AFFORD, qui combine apprentissage automatique et diffusion aléatoire
This thesis investigates how making content caching and forwarding latency-aware can improve data delivery performance in Information-Centric Networks (ICN). We introduce a new mechanism that leverages retrieval time observations to decide whether to store an object in a network cache, based on the expected delivery time improvement. We demonstrate that our distributed latency-aware caching mechanism, LAC+, outperforms state of the art proposals and results in a reduction of the content mean delivery time and standard deviation of LRU caches by up to 60%, along with a fast convergence to these figures. In a second phase, we conjointly optimize the caching function and the multipath request forwarding strategies. To this purpose, we introduce the mixed forwarding strategy LB-Perf, directing the most popular content towards the same next hops to foster egress caches convergence, while load-balancing the others. Third, we address ICN fairness to contents. We show that traditional ICN caching, which favors the most popular objects, does not prevent the network from being globally fair, content-wise. The incidence of our findings comforts the ICN community momentum to improve LFU cache management policy and its approximations. We demonstrate that in-network caching leads to content-wise fair network capacity sharing as long as bandwidth sharing is content-wise fair. Finally, we contribute to the research effort aiming to help ICN Forwarding Information Base scale when confronted to the huge IoT era’s namespace.We propose AFFORD, a novel view on routing in named-data networking that combines machine learning and stochastic forwarding
APA, Harvard, Vancouver, ISO und andere Zitierweisen
7

Mekinda, Mengue Leonce. „Mécanismes de cache, traitement et diffusion de l'information dans les réseaux centrés sur l'information (ICN)“. Electronic Thesis or Diss., Paris, ENST, 2016. http://www.theses.fr/2016ENST0075.

Der volle Inhalt der Quelle
Annotation:
Ce travail de thèse s’est tout d’abord attaché à comprendre comment la prise en compte du temps de téléchargement, autrement dit, de la latence, lors de la mise en cache ou de la transmission de données pouvait contribuer aux performances du téléchargement dans les réseaux de caches dont ICN. Nous y introduisons un mécanisme distribué novateur qui décide de l’opportunité de conserver un objet en considérant que plus il a été long à télécharger plus intéressant il semble de le soumettre au cache sous-jacent. Nous montrons que ce nouveau mécanisme surpasse en de nombreux points l’état de l’art, que ce soit du point de vue de la réduction du temps moyen de téléchargement à partir de caches LRU, et de son écart-type (jusqu’à −60% ), que de celui de la vitesse de convergence vers ceux-ci. Dans une seconde phase, nous avons optimisé conjointement les fonctions de mises en cache et de distribution multi-chemin de requêtes de contenus. Troisièmement, nous avons étudié l’équité vis-à-vis des contenus au sein des réseaux de caches et plus particulièrement, d’ICN. Il en ressort que seule suffit une allocation équitable de la bande passante entre les contenus pour que l’équité d’ICN soit complète. Notre dernière contribution vise à aider au passage à l’échelle d’ICN dans contexte où deviennent réalités l’Internet des Objets et son espace de nommage illimité. Nous avons proposé une approche nouvelle au routage dans les réseaux centrés sur l’information, nommée AFFORD, qui combine apprentissage automatique et diffusion aléatoire
This thesis investigates how making content caching and forwarding latency-aware can improve data delivery performance in Information-Centric Networks (ICN). We introduce a new mechanism that leverages retrieval time observations to decide whether to store an object in a network cache, based on the expected delivery time improvement. We demonstrate that our distributed latency-aware caching mechanism, LAC+, outperforms state of the art proposals and results in a reduction of the content mean delivery time and standard deviation of LRU caches by up to 60%, along with a fast convergence to these figures. In a second phase, we conjointly optimize the caching function and the multipath request forwarding strategies. To this purpose, we introduce the mixed forwarding strategy LB-Perf, directing the most popular content towards the same next hops to foster egress caches convergence, while load-balancing the others. Third, we address ICN fairness to contents. We show that traditional ICN caching, which favors the most popular objects, does not prevent the network from being globally fair, content-wise. The incidence of our findings comforts the ICN community momentum to improve LFU cache management policy and its approximations. We demonstrate that in-network caching leads to content-wise fair network capacity sharing as long as bandwidth sharing is content-wise fair. Finally, we contribute to the research effort aiming to help ICN Forwarding Information Base scale when confronted to the huge IoT era’s namespace.We propose AFFORD, a novel view on routing in named-data networking that combines machine learning and stochastic forwarding
APA, Harvard, Vancouver, ISO und andere Zitierweisen
8

López, Dawn Ricardo José. „Modélisation stochastique et analyse des données pour la diffusion d'information dans les plateformes sociales en ligne“. Electronic Thesis or Diss., Sorbonne université, 2023. https://accesdistant.sorbonne-universite.fr/login?url=https://theses-intra.sorbonne-universite.fr/2023SORUS036.pdf.

Der volle Inhalt der Quelle
Annotation:
Le marketing d'influenceurs est devenu une industrie florissante dont la valeur du marché mondial devrait atteindre 15 milliards de dollars d'ici 2022. Le problème publicitaire auquel ces agences sont confrontées est le suivant : compte tenu d'un budget monétaire, trouver un ensemble d'influenceurs appropriés qui peuvent créer et publier des posts de différents types (par exemple, texte, image, vidéo) pour la promotion d'un produit cible. L'objectif de la campagne est de maximiser à travers une ou plusieurs plateformes sociales en ligne une certaine mesure d'impact d'intérêt, par exemple le nombre d'impressions, les ventes (ROI), ou la portée de l'audience. Dans cette thèse, nous créons des formulations continues originales du problème du marketing d'influence budgétisé par deux cadres, un statique et un dynamique, basés sur la connaissance de l'annonceur de la métrique d'impact, et la nature des décisions de l'annonceur sur un horizon temporel. Le modèle statique est formulé comme un programme convexe, et nous proposons un algorithme itératif efficace basé sur la méthode de Frank-Wolfe, qui converge vers l'optimum global et présente une faible complexité de calcul. Nous suggérons également une règle empirique quasi-optimale plus simple, qui peut donner de bons résultats dans de nombreux scénarios pratiques. En raison de la nature du modèle dynamique, nous ne pouvons plus résoudre un problème de maximisation de l'utilité du réseau, puisque le retour sur investissement est inconnu, éventuellement bruyant, continu et coûteux à évaluer pour l'annonceur. Cette approche implique une exploration et nous cherchons donc à nous assurer qu'il n'y a pas d'exploration destructive, et que chaque décision séquentielle de l'annonceur améliore le résultat du ROI au fil du temps. Dans cette approche, nous proposons un nouvel algorithme et une nouvelle implémentation, basés sur le cadre d'optimisation bayésienne pour résoudre notre problème de marketing d'influence budgétisé sous des décisions séquentielles de l'annonceur sur un horizon temporel. En outre, nous proposons une observation empirique pour éviter la malédiction de la dimensionnalité. Nous testons notre modèle statique, l'algorithme et l'heuristique contre plusieurs alternatives de la littérature d'optimisation ainsi que des méthodes de sélection de graines standard et nous validons la performance supérieure de Frank-Wolfe en temps d'exécution et en mémoire, ainsi que sa capacité à s'adapter à des problèmes avec un très grand nombre (millions) d'utilisateurs sociaux. Enfin, nous évaluons notre modèle dynamique sur une trace réelle de données et nous concluons à la faisabilité de notre modèle et au soutien empirique de notre observation formulée
Influencer marketing has become a thriving industry with a global market value expected to reach 15 billion dollars by 2022. The advertising problem that such agencies face is the following: given a monetary budget find a set of appropriate influencers that can create and publish posts of various types (e.g. text, image, video) for the promotion of a target product. The campaign's objective is to maximize across one or multiple online social platforms some impact metric of interest, e.g. number of impressions, sales (ROI), or audience reach. In this thesis, we create original continuous formulations of the budgeted influence marketing problem by two frameworks, a static and a dynamic one, based on the advertiser's knowledge of the impact metric, and the nature of the advertiser's decisions over a time horizon. The static model is formulated as a convex program, and we further propose an efficient iterative algorithm based on the Frank-Wolfe method, that converges to the global optimum and has low computational complexity. We also suggest a simpler near-optimal rule of thumb, which can perform well in many practical scenarios. Due to the nature of the dynamic model we cannot solve any more a Network Utility Maximisation problem since that the ROI is unknown, possibly noisy, continuous and costly to evaluate for the advertiser. This approach involves exploration and so, we seek to ensure that there is no destructive exploration, and that each sequential decision by the advertiser improves the outcome of the ROI over time. In this approach, we propose a new algorithm and a new implementation, based on the Bayesian optimization framework to solve our budgeted influence marketing problem under sequential advertiser's decisions over a time horizon. Besides, we propose an empirical observation to avoid the curse of dimensionality. We test our static model, algorithm and the heuristic against several alternatives from the optimization literature as well as standard seed selection methods and validate the superior performance of Frank-Wolfe in execution time and memory, as well as its capability to scale well for problems with very large number (millions) of social users. Finally, we evaluate our dynamic model on a real Twitter data trace and we conclude the feasibility of our model and empirical support of our formulated observation
APA, Harvard, Vancouver, ISO und andere Zitierweisen
9

Guinchard, Julia. „Evaluation et valorisation de la communication environnementale et diffusion d’informations dans le document de référence : le cas des entreprises cotées du CAC 40, de 2007 à 2013“. Thesis, Paris 10, 2014. http://www.theses.fr/2014PA100124/document.

Der volle Inhalt der Quelle
Annotation:
En se focalisant sur 38 grands groupes cotés au CAC 40, de 2007 à 2013, la question de l’affichage environnemental et de sa valorisation sur le marché est envisagée dans une étude exploratoire selon les axes suivants : Le premier consiste à identifier l’existence d’un effet sur les cours de bourse d’une diffusion publique d’éléments afférant à la stratégie environnementale, en faisant appel aux études d’événements. La publication du document de référence a ainsi retenu toute l’attention. Puis, il apparaît essentiel de caractériser cette information : L’objectif n’est pas d’évaluer la qualité de la politique adoptée, mais d’étudier et évaluer les comportements en la matière, en mobilisant une analyse de contenu pour un total de 228 documents de référence. Une méthodologie de scoring a été adoptée, afin d’établir un indice de diffusion d’informations environnementales, sur la base d’un référentiel reconnu internationalement et pertinent, le Global Reporting Initiative (GRI). Enfin, une modélisation permet de tester la relation entre la réaction observée sur le marché financier et l’information environnementale. Sur la pratique de diffusion d’informations environnementales, les comportements des entreprises de l’échantillon se sont améliorés tant sur la nature des informations divulguées que sur les pratiques globales : Elles sont de plus en plus transparente sur la base des critères environnementaux définis par le GRI. A la publication du document de référence, des rentabilités anormales cumulées sont observées et significatives. Les résultats laissent apparaître que le pouvoir explicatif de la communication environnementale est au demeurant plus important que des variables financières, tel que la variation de l’effet de levier, bien qu’il soit affecté au cours du temps
By focusing on 38 stock marketed companies from the CAC 40 from 2007 to 2013, to question on the link between environmental published information and market valorization is at stake. The response is organized trough 3 main objectives by performing an explorative analysis: First, one may identify an impact from the disclosure about environmental practices on the stock market thank to the event study methodology. Publication of the annual registration documents hold attention in order to appreciate public environmental communication: Thus, the issue is not to evaluate firms’ policies but to understand how do they behave concerning their communication, by performing a content analysis based on 228 registration documents. Then, one may use an innovative data sources through the Global reporting initiative (GRI) standardized items to explore and to score the published information concerning environmental practices, leading to build an disclosure index. Last, one may test the relationship between the disclosure practices and the impact of this disclosure on the stock market. Companies tend to be more and more transparent according to the GRI, as on the items itself than on their whole practices. When they circulate their registration documents, there are significant cumulated abnormal returns. As a result, one may observe that disclosure on environmental practices explains more the abnormal returns than financial datas, as the leverage variation, even if this effect tend to be less and less important with time
APA, Harvard, Vancouver, ISO und andere Zitierweisen
10

Loctier, Denis. „Редакционный нейтралитет в международном информационном телевещании“. Thesis, Lyon 2, 2012. http://www.theses.fr/2012LYO20065/document.

Der volle Inhalt der Quelle
Annotation:
Cette œuvre représente une tentative cherchant à mettre en lumière les facteurs qui expliquent la visée des chaînes transnationales de l’information pour créer cet effet de neutralité dans la couverture éditoriale des conflits. Elle analyse également les conditions qui rendent possibles cette stratégie par les limites internes de la rédaction, ainsi que par le biais des attentes des publics. La position privilégiée de l'auteur, qui a depuis plus d'une décennie travaillé comme journaliste au sein de l'équipe éditoriale internationale d'Euronews, lui a permis de tester ses hypothèses et les constatations de l'intérieur de la chaine. Cette thèse examine les stratégies éditoriales des grands chaînes paneuropéens et mondiales d'information, en les plaçant dans la perspective de l'évolution historique de la diffusion transnationale et en analysant des évolutions actuelles dans le contexte de la mondialisation. En se concentrant en particulier sur la question de la neutralité déclarée habituellement dans les politiques éditoriales de ces chaînes, l'étude analyse les divergences dans l'interprétation de ce principe de base aussi bien par les équipes éditoriales comme par des groupes cibles des différents organismes de télédiffusion – un phénomène crucial qui créent des identités distinctes derrière la neutralité prétendue des flux d'information. Les méthodes employées dans la préparation de cette thèse intègrent l’observation participante à l’intérieur d’une chaine de nouvelles internationales de premier plan, une analyse de la perception du contenu des nouvelles par des téléspectateurs se classant parmi des camps politiques antagonistes, et une revue de la littérature et des publications périodiques russes et européennes
This work represents an attempt to shed light onto the factors that explain the yearning of the transnational news channels to creating the impression of editorial neutrality in conflict coverage. It also demonstrates the conditionality of this guideline by the internal editorial limitations, as well as by the bias of the audience groups. The privileged position of the author, who has for more than a decade been working as a staff journalist within the international editorial team of Euronews, allowed him to test his hypotheses and findings from within. This dissertation examines the editorial strategies of the major paneuropean and global news channels, putting them in the perspective of historical evolution of transnational broadcasting and analysing the current developments in the context of the globalising world of today. Focusing in particular on the issue of commonly declared neutrality in the channels' editorial policies, the study analyses divergencies in interpreting this basic principle both by the editorial teams and by various audience groups of different broadcasters, creating distinct identities behind the supposedly neutral informational flows. The methods employed in preparing this dissertation include involved observational research of a leading international news channel, the analysis of the perception of news content by viewers ranking among confronting political camps, and reviews of topical Russian and European periodicals and literature
APA, Harvard, Vancouver, ISO und andere Zitierweisen
11

Lesson, Benjamin. „La torpille numérique : problématiques métier de l’exploitation cinématographique à l’heure des multiplexes et des diffusions multi-supports“. Thesis, Lyon 2, 2011. http://www.theses.fr/2011LYO20090/document.

Der volle Inhalt der Quelle
Annotation:
L’exploitant de cinéma articule l’espace public cinématographique et l’espace public ; il offre une définition, une objectivation du cinéma au sein de l’espace public, dans la manière dont il construit un cadre d’expérience esthétique. Il est donc à la croisée des chemins : il doit veiller à donner un site (matériel et symbolique) à l’expérience esthétique, selon les logiques propres à son champ et en considérant la « demande » du public.Les problématiques de son métier concernent aussi bien son positionnement concurrentiel, que son positionnement au sein de l’espace public cinématographique ainsi qu’au sein de l’espace public. La présente thèse vise à en rendre compte, de manière transdisciplinaire et engage également une réflexion sur le discours porté sur le cinéma au sein de l’espace public ainsi que la fonction que lui accorde cet espace. Les nouveaux dispositifs numériques peuvent conduire à la radicalisation du caractère mass media du film (en multipliant les modalités de réception), mais ils offrent également nouvelles configurations esthétiques; le cinéma doit donc être (re)défini en fonction de ces nouvelles possibilités (partie 1).C’est toute l’institution cinématographique qui est confrontée à la problématique de l’émergence des nouveaux médias et qui, malgré elle, tend à réduire la valeur expérientielle du cinéma au caractère mass media du film. Or, c’est le marché qui capte et exploite le plus cette logique (partie 2).Cependant, l’exploitant n’est pas seulement un diffuseur ; le travail de l’exploitant est également d’opérer une médiation. Ainsi, il s’agit de considérer les problématiques de sociabilité engagées par la salle de cinéma et les conditions de création de micro-agora, de micro espace public par l’exploitation (partie 3).Ce n’est que dans une saisie globale des deux aspects du cinéma (mass media et micro agora) que l’exploitant a une fonction claire et importante, qu’il convient de revaloriser au sein de l’espace public cinématographique (conclusion)
The movie theatre manager articulates the cinematographic public place and the public place. He proposes a definition and an objectification of the cinema within the public place, depending how he « builds » an aesthetic experiment frame. Thus, the movie theatre manager is on a « crossroad ’: he has to ensure the (material and symbolical) frame required for an aesthetic experiment, depending on institutional practices and according to the spectators « demands». The business challenges of the movie theatre manager concern as well its competitive location, as its location within the cinematographic public place as well as within the public place. This thesis aims at reporting it, in an interdisciplinary way. It also commits a comment on the definitions of the cinema belonging to the public place as well as the function that this space grants it.The new digital devices can drive to the radicalisation of the mass media aspect of the movie (by multiplying the ways of reception). But they also offer new aesthetic configurations. Thus, the cinema has to be (re) defined according to these new possibilities (Part 1).It is all the film institution which is concerned by the problems due to the new technologies emergence and which tends to reduce the cinematographic experiential value to the mass media of the film aspect. Now the market exploits this logic more than the institutions do and so appears as the only guarantor of the quality (Part 2).However, the movie theatre manager is not only a diffuser; his work also is to proceeds a mediation. So, it is a matter of considering the sociability problematics committed by the theatre space and the conditions of creation of micro- agora, micro public place by the movie theatre (Part 3).It is only in a global seizure of both aspects of the cinema (mass media and micro-agora) that the movie theatre manager has a clear and an important function, that it must be revalued within the film public place (conclusion)
APA, Harvard, Vancouver, ISO und andere Zitierweisen
12

Brochu, Barbeau Elise. „Transfert et traitement de l’information visuomotrice dans le cerveau autiste : intégrité et hétérogénéité“. Thèse, 2014. http://hdl.handle.net/1866/11785.

Der volle Inhalt der Quelle
Annotation:
En plus de la triade de symptômes caractérisant l’autisme, ce trouble neurodévelopmental est associé à des particularités perceptives et motrices et, au niveau cérébral, par une connectivité atypique entre les différentes régions du cerveau. Au niveau anatomique, un des résultats les plus communs est la réduction du corps calleux. Toutefois, des effets directs de cette altération anatomique sur l’intégrité et l’efficacité du transfert interhémisphérique restent à être démontrés. Pour la présente thèse, trois différentes études investiguent différents aspects du traitement de l’information visuomotrice : le transfert interhémisphérique entre les régions bilatérales motrices et visuelles, la vitesse de traitement perceptif, et les habiletés motrices visuellement guidées. Dans la première étude, le paradigme visuomoteur de Poffenberger a été utilisé pour mesurer le temps de transfert interhémisphérique (TTIH). L’imagerie par résonnance magnétique fonctionnelle (IRMf) et structurale ainsi que l’imagerie de diffusion ont aussi été utilisées pour étudier les réseaux cérébraux impliqués dans la tâche de Poffenberger. Les autistes ont été comparés à un groupe d’individus à développement typique. La deuxième étude avait pour but d’investiguer la vitesse de traitement perceptif en autisme. Dans la troisième étude, deux tâches motrices (Purdue et Annett) ont été utilisées pour examiner la nature et l’importance des déficits moteurs. La tâche de Purdue inclut deux conditions bimanuelles utilisées comme indice additionnel d’intégration interhémisphérique. Dans les études 2 et 3, le groupe d’autistes a aussi été comparé à un groupe d’individus Asperger afin de voir si, et comment, les deux sous-groupes peuvent être distingués en ce qui concerne le traitement visuel et les déficits moteurs. Aucune différence entre les groupes n’a été observée en termes de TTIH. Les résultats de l’étude IRMf révèlent des différences d’activations corticales en lien avec la tâche de Poffenberger. Dans les groupes d’autistes et de typiques, l’efficacité de la communication interhémisphérique était associée à différentes portions du corps calleux (frontales/motrices chez les typiques, postérieures/visuelles chez les autistes). De façon globale, les résultats de cette étude démontrent un patron atypique de transfert interhémisphérique de l’information visuomotrice en autisme, reflétant un rôle plus important des mécanismes visuels dans le comportement sensorimoteur possiblement en lien avec une réorganisation cérébrale. Les résultats des études comportementales 2 et 3 indiquent que les autistes excellent dans la tâche mesurant la vitesse de traitement perceptif alors que les Asperger accomplissent la tâche à des niveaux similaires à ceux des typiques. La nature des déficits moteurs diffère aussi entre les deux sous-groupes; la dextérité et la coordination bimanuelle est affectée chez les individus Asperger mais pas chez les autistes, qui eux sont plus atteints au niveau de la rapidité unimanuelle. Les sous-groupes d’autistes et de syndrome d’Asperger sont caractérisés par des profils cognitifs différents dont les particularités perceptives et motrices font partie intégrante.
In addition to the triad of symptoms characterizing autism, this neurodevelopmental condition is characterized by visual and motor atypicalities and, at the cerebral level, by atypical connectivity between the different brain areas. Anatomically, one of the most replicated finding is a reduction of the corpus callosum. However, evidence of a direct effect of the corpus callosum reductions on integrity and efficiency of interhemispheric transfer is lacking. Three different studies were designed to investigate different aspect of visuo-motor processing: interhemispheric transfer between bilateral motor and visual brain areas, perceptual processing speed, visually guided motor performance. In the first study, the visuo-motor Poffenberger paradigm was used to measure interhemispheric transfer time (IHTT). Structural and functional magnetic resonance imaging (fMRI) and diffusion tensor imaging (DTI) were also used to study the brain networks involved in the Poffenberger task. Autistics were compared to typically developing individuals. The second study investigates whether perceptual processing speed (Inspection Time task) is atypical in autism. In the third study, two visually-guided motor tasks (the Purdue pegboard and Annett peg moving task) were used to verify the nature and magnitude of motor deficits. The Purdue task includes two bimanual conditions used as additional measures of interhemispheric communication integrity. Moreover, in studies 2 and 3, behavioral differences between autistic and Asperger individuals were investigated in order to see if and how the two subgroups can be distinguished in terms of perceptual processing and motor deficits. No group difference was observed in terms of IHTT. The fMRI results reveal a different pattern of cortical activations associated to the Poffenberger task. In the autism and typical groups, the efficiency of interhemispheric communication was associated with different portions of the corpus callosum (frontal/premotor in typicals, posterior/visual in autistics). These results demonstrate an atypical pattern of interhemispheric visuo-motor information transfer, possibly reflecting a more prominent role of visual mechanisms guiding sensorimotor behavior in autism, related to cerebral reorganizations. Results of the behavioral studies indicate that autistics have an excellent visual processing speed while Asperger individuals performed like typicals. Motor impairments also differed between the two subgroups; dexterity and bimanual coordination was impaired in Asperger individuals but not in autistics, who presented more difficulties in unimanual conditions. Autism and Asperger subgroups are characterized by different cognitive profiles in which visual processing and motor deficits are important factors.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
13

Roy, Sophie. „La diffusion d'archives à l'aide des technologies du Web 2.0 : le cas du Musée McCord“. Thèse, 2012. http://hdl.handle.net/1866/8447.

Der volle Inhalt der Quelle
Annotation:
Ce mémoire explore le concept de diffusion des archives à l’ère du Web 2.0. Dans le contexte nord-américain, la diffusion en archivistique englobe les aspects de promotion, de mise en valeur et de communication des archives. Le Web 2.0 offre un potentiel très intéressant pour la diffusion d’archives. Ce moyen de diffusion est défini comme étant un ensemble de principes et de technologies qui crée et facilite l’interaction entre plusieurs individus. Peu d’études ont été menées sur la diffusion des archives à l’ère du Web 2.0, c’est pourquoi notre recherche s’est intéressée à un milieu qui a intégré le Web 2.0 afin d’instaurer un dialogue avec ses usagers, connus et potentiels, pour exploiter ses archives et augmenter sa visibilité, soit le Musée McCord. Dans cette étude de cas simple certains membres du personnel du Musée McCord ont été rencontrés, afin de découvrir les motivations de l’institution à se lancer dans l’utilisation d’outils issus de ces technologies. De plus, l’étude a permis d’observer quels outils ont été choisis, comment et pourquoi. Ensuite, les avantages et les désavantages de cette nouvelle utilisation ont été mis en lumière. Enfin, les étapes de la mise en place d’outils du Web 2.0 sont exposées.
This master thesis explores the concept of archival dissemination in the Web 2.0 era. In the North American context, dissemination from an archival perspective includes the promotion, valorization and communication of archives. Web 2.0 represents new and interesting opportunites for dissemination as it facilitates interactions among individuals. As few studies examined this question, we were interested in studying an organisation where Web 2.0 platforms had been integrated to establish a dialog with their known and potential users, in order to enhance the exploitation of their archives as well as to increase their visibility. In this case study of the McCord Museum of Canadian History, we interviewed members of the personnel involved in the implementation of Web 2.0 platforms to discover the motivations behind the adoption of those technologies, as well as to describe the selected tools and the way they were implemented. The advantages and disadvantages of these new dissemination plateforms were highlighted. In conclusion, we propose guidelines to successfully implement Web 2.0 tools.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
14

Lacombe, Anne-Marie. „Les archives dans l'art de Robert Rauschenberg“. Thèse, 2013. http://hdl.handle.net/1866/9939.

Der volle Inhalt der Quelle
Annotation:
Ce mémoire adopte une perspective archivistique afin d'examiner l'art de Robert Rauschenberg, un artiste américain ayant fait ses débuts sur la scène artistique new-yorkaise des années soixante. Il est pertinent de voir les stratégies d’appropriation des artistes des années soixante, dont faisait partie Rauschenberg, comme ayant « mis la table » pour le mouvement des artistes allant puiser dans les archives pour leur pratique artistique, mouvement qui s'est développé depuis la fin des années quatre-vingt et le début des années quatre-vingt-dix. L'ensemble des rapports de l'artiste avec les archives est d'abord étudié. Ensuite, une lecture archivistique d'un corpus d'oeuvres est réalisée afin de mieux comprendre les particularités de l'utilisation des archives par Rauschenberg. Les conditions d'utilisation des archives sont relevées ainsi que la conception des archives comme mémoire, pour se terminer avec les rapports entre les archives et la photographie.
This thesis takes an archival perspective in order to examine the work of Robert Rauschenberg, an American artist who gained notoriety in the New-York art scene of the sixties. It is relevant to see appropriation art strategies by artists like Rauschenberg as a way of having « set up the table » for the archival art movement that would follow, starting in the late eighties and early nineties. The artist's connexions with the archives are first studied. Then, an archival reading of a corpus of his artworks is conducted in order to learn about his particular use of the archives. The conditions of use are raised, along with the conception of archives as memory and, at last, the relationship between archives and photography.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
15

Caneva, Christiane. „Les enjeux de l'utilisation des TIC dans les institutions de formation des enseignants au Costa Rica“. Thèse, 2017. http://hdl.handle.net/1866/20062.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
16

Klein, Anne. „Archive(s) : approche dialectique et exploitation artistique“. Thèse, 2014. http://hdl.handle.net/1866/11648.

Der volle Inhalt der Quelle
Annotation:
Les archives sont aujourd’hui utilisées et envisagées hors de leur lieu traditionnel qu’est le service d’archives et souvent même hors de l’action des archivistes. Cette thèse de doctorat propose un renversement dialectique benjaminien dans la conception de l’archivistique dont le point central devient l’utilisation des archives définitives plutôt que la production des documents. Les premiers chapitres retracent les différentes compréhensions des archives depuis la création des institutions nationales au 19e siècle jusqu’au renouvellement opéré par certains archivistes se réclamant de la postmodernité à la fin du 20e siècle. Cette histoire des archives et de l’archivistique montre que les archives définitives sont caractérisées au regard du rapport au passé qu’elles permettent et que les archivistes pensent leur objet depuis la question historiographique de l’écriture de l’histoire. Ainsi, deux conceptions générales des archives coexistent aujourd’hui et apparaissent comme essentiellement contradictoires en ce que l’une (traditionnelle) est centrée sur le créateur des documents et le passé compris comme l’ensemble des actes posés par le créateur, tandis que l’autre (postmoderne) se fonde sur les fonctions sociales des archives et sur le rôle de l’archiviste. L’élément commun à ces deux visions est l’absence de prise en charge théorique des utilisateurs et de l’exploitation des documents. Or, en suivant les traces et la pensée de Walter Benjamin, nous proposons de penser la double nature des archives comme documents et comme témoignage tout en articulant cette pensée à l’archive comme modalité d’inscription de soi dans le temps. Il en ressort que les archives peuvent être considérées comme une objectivation du passé relevant d’une temporalité chronologique au cœur de laquelle réside, à l’état latent, l’archive potentiellement libératrice. L’exploitation artistique des archives, telle qu’elle est présentée dans le cinquième chapitre, montre comment la notion d’archives explose. En outre, l’observation de ce type particulier d’exploitation permet de mettre au jour le fait que les archives sont toujours inscrites dans des conditions d’utilisation (contexte, matérialité, dispositif, rapport au public) qui sont autant de conditions d’existence de l’archive. Parmi les questions abordées par les artistes celles de la mémoire, de l’authenticité, des archives comme moyen d’appropriation du monde et comme objet poétique sont alors autant de points d’entrée possibles pour revisiter l’archivistique. Le dernier chapitre synthétise l’ensemble des renouvellements proposés au fil de la thèse de manière implicite ou explicite. Nous y envisageons une temporalité non chronologique où les archives sont un objet du passé qui, saisi par un présent dialectique singulier, sont tournées à la fois vers le passé et vers l’avenir. De nouvelles perspectives sont ouvertes pour l’archivistique à partir des caractéristiques assignées aux archives par les artistes. Finalement, c’est le cycle de vie des archives qui peut être revu en y incluant l’exploitation comme dimension essentielle.
This thesis proposes a dialectical reversal in the archival science concept whose central point is the use of archives rather than the production of records. The first chapters outline the various understandings of the archives since the creation of national institutions in the 19th century until a renewed approach done by some archivists defining themselves as postmodernists in the late 20th century. The history of the archives and the archival science shows two coexistent views which appear as essentially contradictory in that one (traditional) is centered on the creator of the records, and the past understood as the set of actions performed by the creator, while the other (postmodern) is based on the social functions of the archives and the archivist’s role. Following the dialectical thought of Walter Benjamin, the fourth chapter proposes to think the dual nature of archives as documents and testimony while articulating that thought about the archive as a means of inscription of self in time. It appears that the archives can be considered as an objectification of the past within a chronological temporality at the heart of which resides, latently, the archive as a potential emancipator. The artistic use of archives as presented in the fifth chapter shows how this particular type of exploitation highlights the fact that the archives are bound by their conditions of use, which are also the conditions of existence of the archive. Among the issues addressed by the artists, those of memory, authenticity, archives as a means of appropriating the world, and as a poetical object become as many possible entry point to revisit the archival science. The last chapter summarizes all the proposed renewals detailed throughout the thesis. We envision a non-chronological temporality where the archives, objects of the past handled by a singular current dialectic, are being oriented towards both the past and the future. New opportunities are being offered for the archival science from the new properties being assigned to the archives by the artists. Finally, it is the life cycle of the archives itself that can be revised by including the exploitation as a key dimension.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
17

Walton, Diana. „Stratégies pour encourager et soutenir l’exploitation des archives par des artistes dans les centres et les services d’archives au Québec“. Thèse, 2018. http://hdl.handle.net/1866/21242.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
Wir bieten Rabatte auf alle Premium-Pläne für Autoren, deren Werke in thematische Literatursammlungen aufgenommen wurden. Kontaktieren Sie uns, um einen einzigartigen Promo-Code zu erhalten!

Zur Bibliographie