Literatura científica selecionada sobre o tema "Centre de données virtualisé"

Crie uma referência precisa em APA, MLA, Chicago, Harvard, e outros estilos

Selecione um tipo de fonte:

Consulte a lista de atuais artigos, livros, teses, anais de congressos e outras fontes científicas relevantes para o tema "Centre de données virtualisé".

Ao lado de cada fonte na lista de referências, há um botão "Adicionar à bibliografia". Clique e geraremos automaticamente a citação bibliográfica do trabalho escolhido no estilo de citação de que você precisa: APA, MLA, Harvard, Chicago, Vancouver, etc.

Você também pode baixar o texto completo da publicação científica em formato .pdf e ler o resumo do trabalho online se estiver presente nos metadados.

Artigos de revistas sobre o assunto "Centre de données virtualisé"

1

Bidan, Marc, Hugues Ferreboeuf, Laurie Marrauld e Florence Rodhain. "Le numérique est une industrie de plus en plus lourde". Reflets de la physique, n.º 77 (fevereiro de 2024): 151–54. http://dx.doi.org/10.1051/refdp/202477151.

Texto completo da fonte
Resumo:
L’informatique en nuage et les pratiques qui s’y rattachent sont l’une des activités les plus énergivores de tout l’écosystème numérique. Le 10 mars 2021, un incendie a détruit entièrement l’un des quatre centres de données strasbourgeois de OVH, le numéro un français du “cloud computing”. Cet incendie malheureux (voir la photo, p. 153) et ses conséquences lourdes doivent nous inciter à repenser le rapport du numérique à l’environnement et à sa propre durabilité. Les dégâts et les impacts de cet incendie montrent que le “cloud”, le « nuage », n’est pas si éthéré que cela. Bien au contraire. Lorsque le centre de données brule, c’est bien de la matière qui brule. Nos données sont hébergées et traitées dans des usines, même si leur réalité physique, virtualisée par les discours marketing et médiatiques, est devenue de moins en moins perceptible pour l’utilisateur final.
Estilos ABNT, Harvard, Vancouver, APA, etc.
2

Rubiliani, Claudio. "L’insoutenable pesanteur du réel". Topique 160, n.º 1 (1 de janeiro de 2024): 137–50. http://dx.doi.org/10.3917/top.160.0137.

Texto completo da fonte
Resumo:
Notre monde virtualisé estompe la frontière entre le réel et l’imaginaire. Ce contexte angoissant favorise l’émergence de néo-totalitarismes. Ceux-ci, tel le wokisme, essaient d’imposer leur dogme et leurs normes par des stratégies éprouvées : détournement ou rejet des données scientifiques, telle la fallacieuse théorie du genre, réécriture de l’Histoire, violences psychiques et physiques de la « cancel culture ». Par leur vulnérabilité, les adolescents constituent la cible principale et les premières victimes de cette dictature du fantasme.
Estilos ABNT, Harvard, Vancouver, APA, etc.
3

Harvey, C. C., C. Huc e M. Nonon-Latapie. "Centre de données de la physique des plasmas". Advances in Space Research 31, n.º 5 (março de 2003): 1291–95. http://dx.doi.org/10.1016/s0273-1177(02)00943-2.

Texto completo da fonte
Estilos ABNT, Harvard, Vancouver, APA, etc.
4

Gervais, M. J., François Chagnon e André Paccioni. "Augmenter l’utilisation des données probantes par les intervenants et les gestionnaires en centre jeunesse". Service social 57, n.º 1 (20 de outubro de 2011): 49–62. http://dx.doi.org/10.7202/1006247ar.

Texto completo da fonte
Resumo:
Depuis une dizaine d’années, une importance accrue est accordée à l’utilisation des données probantes afin d’améliorer la qualité des services psychosociaux offerts aux jeunes et aux familles en difficulté. Malgré cet intérêt, la connaissance des conditions favorables afin de soutenir l’utilisation des données probantes dans les milieux d’intervention est limitée et doit être développée. En se fondant sur l’examen de la littérature et sur une recherche qualitative, la présente étude examine les besoins, en matière de données probantes, de 15 gestionnaires et 15 intervenants travaillant en centre jeunesse au Québec. L’étude suggère que la production de données adaptées aux besoins des intervenants et des gestionnaires, présentées dans un format adéquat et respectant les standards de validité scientifique, permet de favoriser leur utilisation.
Estilos ABNT, Harvard, Vancouver, APA, etc.
5

Charleroy, Arnaud, Xavier Delpuech e Pascal Neveu. "Vitioeno, un centre de ressources numériques pour la production de données scientifiques FAIR". BIO Web of Conferences 68 (2023): 01030. http://dx.doi.org/10.1051/bioconf/20236801030.

Texto completo da fonte
Resumo:
Résumé INRAE et l’IFV ont mis en place un centre de ressources numériques ouvertes et librement accessibles, avec l’objectif d’aider et de faciliter la structuration et la qualification des données selon les principes FAIR. Ce centre de ressource pour l’aide à la gestion des données « Vitioeno » est disponible en ligne, en français et en anglais, à l’adresse https://vitioeno.mistea.inrae.fr/resource/app/. Il recense et donne un accès ouvert à différents types de ressources numériques existantes, en particulier des référentiels (matériel végétal et variables expérimentales), des documents téléchargeables de type protocoles, et des applications ou liens utiles.
Estilos ABNT, Harvard, Vancouver, APA, etc.
6

De Lamberterie, Isabelle. "La valorisation des banques de données du CNRS". Revue française d'administration publique 72, n.º 1 (1994): 675–83. http://dx.doi.org/10.3406/rfap.1994.2864.

Texto completo da fonte
Resumo:
The valorisation of the national centre for scientific research’s data bases The National Centre for Scientific Research is a producer of data bases which are direct product or sub-product of research. Therefore it has to articulate the valorisation of research results - the data bases - with the rules for public data dissemination and its own mission of scientific information dissemination. It also has to take into account the rights of researchers and the rights of so-called “reserved” informations. The valorisation of data bases also has to reconcile the possibilities of giving monopolies to contracting enterprises and the duties of dissemination included in the proposal of a european community directive on the protection of data bases.
Estilos ABNT, Harvard, Vancouver, APA, etc.
7

Perrault, Francine, e Daniel Fortin. "Vécu et perception des usagers d’un centre de crise". Santé mentale au Québec 18, n.º 1 (11 de setembro de 2007): 287–301. http://dx.doi.org/10.7202/032260ar.

Texto completo da fonte
Resumo:
RÉSUMÉ Le texte rapporte les résultats d'une série d'entrevues semi-dirigées effectuées auprès de cinquante anciens usagers d'un centre de crise. Les données recueillies portent sur le vécu des résidants et leurs appréciations des services fournis, des intervenants et des résultats de l'intervention faite par le centre.
Estilos ABNT, Harvard, Vancouver, APA, etc.
8

Rey, Grégoire, Agathe Lamarche-Vadel e Éric Jougla. "Comment mesure-t-on les causes de décès en France ?" Questions de santé publique, n.º 21 (junho de 2013): 1–4. http://dx.doi.org/10.1051/qsp/2013021.

Texto completo da fonte
Resumo:
L’Inserm est en charge de la production des données sur les causes de décès depuis 1968. La base de données alimentée par les 540000 décès annuels, et gérée par le Centre d’épidémiologie sur les causes médicales de décès (CépiDc)1, inclut pour chaque décès des données médicales, sociodémographiques et géographiques. Ces données sont diffusées par différents biais (site internet, requêtes spécifiques, publications…), et des travaux réguliers sont effectués par le CépiDc pour évaluer et améliorer leur qualité. Les analyses réalisées à partir de cette base de données ont permis de mettre en évidence certaines spécificités importantes de la mortalité en France comparée à celle d’autres pays: niveau très élevé des causes de décès liées aux conduites à risque et évitables grâce à la prévention primaire, et fortes inégalités spatiales, sociales et par sexe de la mortalité.
Estilos ABNT, Harvard, Vancouver, APA, etc.
9

Cohen, Marsha M., Noralou P. Roos, Carolyn DeCoster, Charlyn Black e Kathleen M. Decker. "Bases de données du Manitoba basées sur la population et planification à long terme: Au-Delà des bases de données d'hôpitaux". Healthcare Management Forum 8, n.º 3 (outubro de 1995): 14–23. http://dx.doi.org/10.1016/s0840-4704(10)60915-5.

Texto completo da fonte
Resumo:
Le Manitoba Centre for Health Policy and Evaluation (MCHPE) fait une recherche sur les services de santé concentrée sur les bases de données administratives du Manitoba. Les bases de données administratives contiennent de l'information qui est recueillie de façon constante et systématique pour les besoins de l'administration, comme les demandes de remboursement des hôpitaux et des médecins, et les exigences de financement. On décrit dans cet article les cinq principales bases de données du MCHPE, leurs points forts et leurs points faibles, ainsi que le fonctionnement du Population Health Information System (PHIS). Quatre modules du PHIS illustrent comment les données sont utilisées pour fournir de l'information utile aux planificateurs de soins de santé, aux administrateurs et aux analystes de politiques. Enfin, on explore les projets et les orientations futurs pour l'utilisation de bases de données administratives.
Estilos ABNT, Harvard, Vancouver, APA, etc.
10

Traoré, Kadiatou, Joseph Traoré, A. Ouattara, Souleymane Papa Coulibaly, Pakuy Pierre Mounkoro, Aperou Eloi Dara, Mahamadou Diabaté et al. "Mali : Étude épidémioclinique des troubles psychiatriques chez les enfants du Centre d’Accueil et de Placement Familial CAPF « Pouponnière »". Psy Cause N° 77, n.º 2 (5 de abril de 2018): 15–18. http://dx.doi.org/10.3917/psca.077.0017.

Texto completo da fonte
Resumo:
l’enfant en institution est proie de beaucoup de problème : Troubles psychoaffectifs, somatiques, psychologiques, psychiatriques etc… L’objectif de cette étude était de déterminer la prévalence des troubles psychiatriques chez les enfants du Centre d’Accueil et de Placement Familial (CAPF). Il s’agissait d’une étude prospective de Mai à juin. Les données ont été collectées sur des fiches d’enquête individuelles préétablies. Elles ont concerné tous les enfants en placement dans le Centre présents lors du passage de l’enquêteur. Durant la période de l’étude, le centre avait en son sein 246 enfants. La tranche d’âge 0 – 3 ans a représenté 93,5 % des 246 enfants. Les garçons étaient les plus représentés avec 53,3 %. Les troubles rencontrés ont été : troubles du langage 1,6 %, déficience mentale 2,4 %, la comitialité 0,8 %, syndrome autistique 0,8 %, association de ces différents troubles 10,1 %, handicap psychique 4,5 %. Les enfants sont retenus au centre dans 97,2 % des cas et abandonnés dans 73,6 % des cas. Nos données témoignent du nombre de cas élevé de troubles psychiatriques dans le CAPF « Pouponnière » au Mali.
Estilos ABNT, Harvard, Vancouver, APA, etc.

Teses / dissertações sobre o assunto "Centre de données virtualisé"

1

Tayachi, Zeineb. "Sûreté de fonctionnement et provisionnement éco-énergétique dans les centres de données virtualisés IaaS". Electronic Thesis or Diss., Paris, CNAM, 2021. http://www.theses.fr/2021CNAM1292.

Texto completo da fonte
Resumo:
Le Cloud computing offre aux utilisateurs l’opportunité d’exploiter des services qui peuvent être des infrastructures, des plateformes, des applications,... Ceci représente un gain de temps et d’argent considérable puisque l’utilisateur n’a besoin ni d’investir dans une infrastructure onéreuse, ni de gérer sa maintenance, de plus il paye juste les ressources utilisées. Afin de prendre en charge des applications à grande échelle et stocker de gros volumes de données, les centres de données ont été largement déployés par des fournisseurs cloud. Cependant, les études ont montré une mauvaise utilisation des ressources qui ne sont pas exploitées pleinement. Les technologies de virtualisation ont permis d’améliorer la situation en déployant des centres de données virtualisés. Ces derniers sont des centres de données où tout ou une partie du matériel (par exemple, serveurs, routeurs, commutateurs et liens) est virtualisé à l’aide d’un logiciel appelé hyperviseur qui divise l’équipement en plusieurs instances virtuelles isolées et indépendantes (comme des machines virtuelles). Toutefois les performances des équipements peuvent être atténuées à cause de plusieurs phénomènes tels que le vieillissement logiciel. L’objectif de cette thèse est d’évaluer les performances de deux composants clés dans les centres de données qui sont le serveur virtualisé et le commutateur virtuel. Puisque, l’architecture de ces systèmes est complexe, on a opté pour utiliser les formalismes de modélisation avant de mettre en place des solutions pratiques. Notre première contribution concerne la modélisation et l’évaluation de la performabilité d’un serveur virtualisé qui implémente une politique de gestion de l’énergie et utilise le rajeunissement logiciel comme une technique proactive afin de prévenir les aléas de vieillissement logiciel. Cette modélisation est basée sur une approche modulaire utilisant le SRN (Stochastic Reward Nets) qui décrit les différents états du SVS ainsi que les transitions régissant le passage d’un état à l’autre. L’analyse numérique permet de capturer l’impact de la variation de la charge de travail et le trafic en rafale sur les métriques de performabilité, ce qui permet de bien définir les paramètres du système. La seconde contribution porte sur l’évaluation des performances d’un commutateur virtuel qui détermine les performances du réseau puisqu’il établit la communication entre des VMs. Le modèle analytique proposé représente l’architecture interne de cenoeud critique avec plusieurs cartes d’interface réseau (représentant des ports) et plusieurs cœurs de processeur (CPU). Chaque CPU sert un ensemble de ports. Le modèle est basé sur les files d’attente avec serveur en vacance et des arrivées groupées. Les résultats numériques montrent l’impact de la taille du groupe et la politique d’acceptation sur les performances du commutateur. Ces résultats peuvent être intéressants lors du dimensionnement des ressources d’un commutateur virtuel
Cloud computing allows users to exploit services such as infrastructures, platforms, applications, ...This allows a considerable cost and time saving since users do not need buying and managing of equipment. Moreover, they just pay the resources used (pay-as-you go). With the increasing large-scale applications and the need to store huge quantities of data, data centers have been widely deployed. However, studies have shown the under utilization of resources. Therefore, Cloud providers resort to virtualization technologies that are adopted by data center architectures and virtualized data centres have been deployed. A Virtualized Data Center is a data center where some or all of the hardware (e.g, servers, routers, switches, and links) are virtualized by using software called hypervisor that divides the equipment into multiple isolated and independent virtual instances (e.g virtual machines (VMs)). However, equipment performance can be mitigated due to several phenomena such as software aging. In this thesis, we focus on performance evaluation of two components in the data centers which are the virtualized server and the virtual switch, by usingmodeling formalisms. The first contribution concerns performability modeling and analysis of server virtualized systems subject to software aging, software rejuvenation and implements an energy management policy. A modular approach based on SRNs is proposed to investigate dependencies between several server virtualized modules. Numerical analysis shows how workload with bursty nature impacts performability metrics. This can handle decision making related to rejuvenation scheduling algorithms and to select the suitable rejuvenation mechanism. The second contribution concerns virtual switch (VS) which is considered as key element in data center networks since it achieves the communication between virtual machines. An analytical queueing model with batch arrivals and server vacations is proposed to evaluate VS performance with several network interface cards and several CPU cores. Performance metrics are obtained as a function of two proposed batch acceptance strategies and mean batch size. Numerical results aremeaningful when sizing virtual switch resources
Estilos ABNT, Harvard, Vancouver, APA, etc.
2

Dumont, Frédéric. "Analyses et préconisations pour les centres de données virtualisés". Thesis, Nantes, Ecole des Mines, 2016. http://www.theses.fr/2016EMNA0249/document.

Texto completo da fonte
Resumo:
Cette thèse présente deux contributions. La première contribution consiste en l’étude des métriques de performance permettant de superviser l’activité des serveurs physiques et des machines virtuelles s’exécutant sur les hyperviseurs VMware et KVM. Cette étude met en avant les compteurs clés et propose des analyses avancées dans l’objectif de détecter ou prévenir d’anomalies liées aux quatreres sources principales d’un centre de données : le processeur, la mémoire, le disque et le réseau. La seconde contribution porte sur un outil pour la détection de machines virtuelles à comportements pré-déterminés et/ou atypiques. La détection de ces machines virtuelles à plusieurs objectifs. Le premier, permettre d’optimiser l’utilisation des ressources matérielles en libérant des ressources par la suppression de machines virtuelles inutiles ou en les redimensionnant. Le second, optimiser le fonctionnement de l’infrastructure en détectant les machines sous-dimensionnées, surchargées ou ayant une activité différente des autres machines virtuelles de l’infrastructure
This thesis presents two contributions. The first contribution is the study of key performance indicators to monitor physical and virtual machines activity running on VMware and KVM hypervisors. This study highlights performance metrics and provides advanced analysis with the aim to prevent or detect abnormalities related to the four main resources of a datacenter: CPU, memory, disk and network. Thesecond contribution relates to a tool for virtual machines with pre-determined and / or atypical behaviors detection. The detection of these virtual machines has several objectives. First, optimize the use of hardware resources by freeing up resources by removing unnecessary virtual machines or by resizing those oversized. Second, optimize infrastructure performance by detecting undersized or overworked virtual machines and those having an atypical activity
Estilos ABNT, Harvard, Vancouver, APA, etc.
3

Gogunska, Karyna. "Étude du coût de mesure des réseaux virtualisés". Thesis, Université Côte d'Azur (ComUE), 2019. http://www.theses.fr/2019AZUR4077.

Texto completo da fonte
Resumo:
La tendance actuelle dans le développement et le déploiement d’applications consiste à les embarquer dans des machines virtuelles ou des conteneurs. Il en résulte une combinaison de configurations de réseaux physiques et virtuels combinant des commutateurs virtuels et physiques avec des protocoles spécifiques pour créer des réseaux virtuels s'étendant sur plusieurs serveurs. Ce nouvel environnement constitue un défi lorsqu'il s'agit de mesurer et de debuguer les problèmes liés aux performances. Dans cette thèse, nous examinons le problème de la mesure du trafic dans un environnement virtuel et nous nous concentrons sur un scénario typique : des machines virtuelles interconnectées par un commutateur virtuel. Nous avons étudié le coût de la mesure en continu du trafic réseau des machines. Plus précisément, nous avons évalué le cout du partage du substrat physique entre la tâche de mesure et l’application. Nous avons dans un premier confirmé l'existence d'une corrélation négative entre la mesure et le trafic applicatif. Dans une seconde partie de la thèse, nous avons orienté notre travail vers une minimisation de l'impact des mesures en utilisant des techniques d'apprentissage automatiques en temps réel. Nous avons proposé une solution basée sur les données, capable de fournir des paramètres de surveillance optimaux pour les mesures de réseau virtuel avec un minimum d'interférence pour le trafic applicatif
The current trend in application development and deployment is to package applications within containers or virtual machines. This results in a blend of virtual and physical resources with complex network setups mixing virtual and physical switches along with specific protocols to build virtual networks spanning over several servers. While this complexity is hidden by cloud management solutions, this new environment constitutes a challenge when it comes to monitor and debug performance related issues. In this thesis, we consider the problem of measuring traffic in a virtualized environment and focus on one typical scenario, virtual machines interconnected with a virtual switch. We assess the cost of continuously measuring the network traffic of the machines. Specifically, we seek to estimate the competition that exists to access the resources (e.g., CPU) of the physical substrate between the measurement task and the application. We confirm the negative correlation of measurement within such setup and propose actions towards its minimization. Concluding on the measurement interference with virtual network, we then turn our work towards minimizing its presence in the network. We assess the capability of machine learning techniques to predict the measurement impact on the ongoing traffic between virtual machines. We propose a data-driven solution that is able to provide optimal monitoring parameters for virtual network measurements with minimum traffic interference
Estilos ABNT, Harvard, Vancouver, APA, etc.
4

Le, Louët Guillaume. "Maîtrise énergétique des centres de données virtualisés : D'un scénario de charge à l'optimisation du placement des calculs". Phd thesis, Ecole des Mines de Nantes, 2014. http://tel.archives-ouvertes.fr/tel-01044650.

Texto completo da fonte
Resumo:
Cette thèse se place dans le contexte de l'hébergement de services informatiques virtualisés et apporte deux contributions. Elle propose premièrement un système d'aide à la gestion modulaire, déplaçant les machines virtuelles du centre pour le maintenir dans un état satisfaisant. Ce système permet en particulier d'intégrer la notion de consommation électrique des serveurs ainsi que des règles propres à cette consommation. Sa modularité permet de plus l'adaptation de ses composants à des problèmes de grande taille. Cette thèse propose de plus un outil pour comparer différents gestionnaires de centres virtualisés. Cet outil injecte un scénario de montée en charge reproductible dans une infrastructure virtualisée. L'injection d'un tel scénario permet d'évaluer les performances du système de gestion du centre grâce à des sondes spécifiques. Le langage utilisé pour cette injection est extensible et permet l'utilisation de scénarios paramétrés.
Estilos ABNT, Harvard, Vancouver, APA, etc.
5

Cerović, Danilo. "Architecture réseau résiliente et hautement performante pour les datacenters virtualisés". Electronic Thesis or Diss., Sorbonne université, 2019. http://www.theses.fr/2019SORUS478.

Texto completo da fonte
Resumo:
Le volume de trafic échangé dans les centres de données croît de façon exponentielle et tout nous porte à croire que cette tendance devrait continuer dans un avenir proche. Afin de suivre cette augmentation, de nombreux progrès dans le domaine des réseaux ont été effectués : les débits des interfaces réseau modernes atteignent aujourd’hui des vitesses supérieures à 40Gbps. Néanmoins, l’exploitation de ces interfaces à haut débit est limitée par l'architecture des piles réseau génériques qui sont incapables de traiter les paquets reçus à une vitesse suffisamment rapide. De nombreuses solutions matérielles et logicielles sont donc récemment apparues afin d'augmenter la vitesse de traitement des paquets. Dans cette thèse, nous étudierons différentes approches, reposant sur l’utilisation de logiciel, de matériel ou d’une combinaison des deux, afin d’améliorer les performances de la partie traitement de paquets réseau sur des hôtes de type serveur. Certaines solutions étudiées sont basées sur le routeur modulaire Click qui utilise, pour exécuter ses fonctions réseau, différents types de matériel (GPU, les FPGA, exécution en parallèle sur de multiples cœurs). Nous explorerons également des solutions logicielles alternatives à Click. Nous comparerons les solutions logicielles et matérielles de traitement de paquets en fonction de différents critères et discuterons de leurs contraintes et de leurs exigences ainsi que de leurs possibilités d'intégration dans des environnements virtualisés. Comme première contribution, nous proposons une architecture de réseau « fabric » résiliente et hautement performante. Notre objectif est de construire un réseau maillé de niveau 2 utilisant uniquement des cartes d'accélération matérielle qui effectuent le traitement des paquets en place des routeurs et des commutateurs. Nous avons décidé d'utiliser, pour la communication entre ces cartes réseau intelligentes, le protocole TRILL qui permet d’avoir une meilleure utilisation des liens réseau tout en assurant un transfert de données au moindre coût entre les hôtes. Le traitement des paquets du plan de données est déchargé sur une carte réseau programmable qui effectue le traitement en parallèle. De plus, nous proposons d'utiliser l'API ODP afin que le code de l'application de traitement de paquets puisse être réutilisé par toute autre solution prenant en charge ladite l'API. Notre deuxième contribution consiste à l’implémentation d’un plan de données du protocole TRILL sur la carte réseau intelligente MPPA (Massively Parallel Processor Array) prenant en charge l’API ODP. Nos résultats expérimentaux montrent que nous pouvons traiter les trames TRILL à un débit de ligne en full-duplex (jusqu'à 40Gbps) pour différentes tailles de paquets tout en réduisant le temps de latence. Comme troisième contribution, nous proposons une analyse mathématique de l'impact des différentes topologies de réseau sur la charge du plan de contrôle. Nous avons examiné diverses topologies de réseau et comparé leurs charges induites par le trafic de contrôle. Nous avons également montré que la topologie hypercube était celle qui convenait le mieux à notre cas d'utilisation de centre de données PoP, car elle n'avait pas une charge de plan de contrôle élevée et avait une meilleure résilience que la topologie fat-tree tout en ayant une distance moyenne plus courte entre les nœuds
The amount of traffic in data centers is growing exponentially and it is not expected to stop growing any time soon. This brings about a vast amount of advancements in the networking field. Network interface throughputs supported today are in the range of 40Gbps and higher. On the other hand, such high interface throughputs do not guarantee higher packet processing speeds which are limited due to the overheads imposed by the architecture of the network stack. Nevertheless, there is a great need for a speedup in the forwarding engine, which is the most important part of a high-speed router. For this reason, many software-based and hardware-based solutions have emerged recently with a goal of increasing packet processing speeds. The networking stack of an operating system is not conceived for high-speed networking applications but rather for general purpose communications. In this thesis, we investigate various approaches that strive to improve packet processing performance on server-class network hosts, either by using software, hardware, or the combination of the two. Some of the solutions are based on the Click modular router which offloads its functions on different types of hardware like GPUs, FPGAs or different cores among different servers with parallel execution. Furthermore, we explore other software solutions which are not based on the Click modular router. We compare software and hardware packet processing solutions based on different criteria and we discuss their integration possibilities in virtualized environments, their constraints and their requirements. As our first contribution, we propose a resilient and highly performant fabric network architecture. Our goal is to build a layer 2 mesh network that only uses directly connected hardware acceleration cards that perform packet processing instead of routers and switches. We have decided to use the TRILL protocol for the communication between these smart NICs as it provides a better utilization of network links while also providing least-cost pair-wise data forwarding. The data plane packet processing is offloaded on a programmable hardware with parallel processing capability. Additionally, we propose to use the ODP API so that packet processing application code can be reused by any other packet processing solution that supports the ODP API. As our second contribution, we designed a data plane of the TRILL protocol on theMPPA (Massively Parallel Processor Array) smart NIC which supports the ODP API. Our experimental results show that we can process TRILL frames at full-duplex line-rate (up to 40Gbps) for different packet sizes while reducing latency. As our third contribution, we provide a mathematical analysis of the impact of different network topologies on the control plane’s load. The data plane packet processing is performed on the MPPA smart NICs. Our goal is to build a layer 2 mesh network that only uses directly connected smart NIC cards instead of routers and switches. We have considered various network topologies and we compared their loads induced by the control plane traffic. We have also shown that hypercube topology is the most suitable for our PoP data center use case because it does not have a high control plane load and it has a better resilience than fat-tree while having a shorter average distance between the nodes
Estilos ABNT, Harvard, Vancouver, APA, etc.
6

Moussa, Hadjer. "Traitement automatique de données océanographiques pour l'interpolation de la ∫CO₂ de surface dans l'océan Atlantique tropical, en utilisant les données satellitaires". Thesis, Perpignan, 2016. http://www.theses.fr/2016PERP0025/document.

Texto completo da fonte
Resumo:
Ce travail de thèse consiste à utiliser les données satellitaires de SST (température de surface), SSS (salinité de surface), et Chl-a (chlorophylle-a), pour l’interpolation de la fugacité du CO2 (fCO2) dans la couche de surface de l’océan Atlantique tropical, pour les saisons de la période 2002-2013. Trois types de données ont été utilisés : in situ (BD (base de données) SOCAT V.3) ; satellitaires (capteurs : MODIS-A, Sea-WIFS, et SMOS) ; et assimilées (BD SODA V.2.2.4). La première étape était la classification des données en se basant sur la SST. La deuxième étape était l’interpolation de la fCO2 (pour chaque classe de chaque saison), en utilisant des RNs (réseaux de neurones artificiels) de type feedforward, avec un apprentissage de type backpropagation. Les résultats obtenus (RMSEs (root mean square error) variant de 8,8 à 15,7 µatm) permettent de confirmer l’importance de : traiter les saisons séparément, classifier les données, et choisir le meilleur RN en fonction des résultats de la généralisation. Ceci a permis l’élaboration de 138 fichiers CSV (Comma-separated values) de fCO2 mensuelle, avec une résolution de 4 km x 4 km, pour la période allant de juillet 2002 à décembre 2013
This thesis work consists of using satellite data of SST (sea surface temperature), SSS (sea surface salinity), and Chl-a (chlorophyll-a), in order to interpolate the CO2 fugacity (fCO2) in the surface of the tropical Atlantic ocean, for seasons of the period 2002-2013. Three data types were used: in situ (SOCAT V.3 DB (database)); satellite (MODIS-A, Sea-WIFS, and SMOS sensors); and assimilated (SODA V.2.2.4 DB). The first step was the data classification based on SST. The second step was the fCO2 interpolation (for each class of each season), using feedforward NNs (artificial neural networks) with a backpropagation learning method. Obtained results (RMSEs (root mean square error) between 8,8 and 15,7 µatm) confirm the importance of: process each season separately, pass through data classification step, and choose the best NN on the basis of generalization step results. This allowed the development of 138 monthly fCO2 CSV (Comma-separated values) file, with 4 km x 4 km spatial resolution, for the period from July 2002 to December 2013
Estilos ABNT, Harvard, Vancouver, APA, etc.
7

Hamadache, Clarisse. "Recherche d'effets de microlentille gravitationnelle vers le centre galactique avec les données d'EROS-II". Phd thesis, Université Louis Pasteur - Strasbourg I, 2004. http://tel.archives-ouvertes.fr/tel-00008874.

Texto completo da fonte
Resumo:
La recherche systématique d'effets de microlentille gravitationnelle vers le centre galactique permet de sonder la structure galactique. Le travail de thèse présenté ici concerne l'analyse des données collectées vers le centre galactique par l'expérience Eros2 pendant toute sa durée (1996-2003) : 66 degrés carrés du ciel situés de part et d'autre du plan galactique étaient surveillés. Les courbes de lumière d'environ 50 millions d'étoiles ont pu être construites dans deux filtres. Les effets de microlentille gravitationnelle d'une durée comprise entre 4 jours et 500 jours et dont l'amplification maximum est supérieure à 2,18 ont été recherchés ; ceci permet de sélectionner des candidats convaincants et constitue une originalité par rapport aux analyses précédentes (Eros2 et concurrents) où l'on considérait une amplification maximum supérieure à 1,34. L'analyse a révélé 139 candidats de microlentille gravitationnelle. Pour calculer la profondeur optique, l'échantillon d'étoiles sources a été restreint aux étoiles situées autour de l'amas des étoiles géantes rouges dans le diagramme couleur magnitude. Ce sous-échantillon constitué de 5,57.10e6 étoiles présente 91 candidats parmi les 139 avec une efficacité moyenne de détection de 56%. La profondeur optique correspondante est de (1,79+/-0,20).10e-6, elle est compatible avec les valeurs attendues par les modèles galactiques. Ce résultat est en accord avec le dernier résultat du groupe Macho mais est plus bas que celui des expériences concurrentes Ogle et Moa qui donnent une profondeur optique 2 à 3 fois plus grande que celle prédite par les modèles. Par ailleurs, la grande statistique des données Eros2 collectées vers le centre galactique a permis de calculer la profondeur optique pour différentes latitudes galactiques, mettant ainsi en évidence le gradient de profondeur optique attendu du fait de la diminution de la densité d'objets compacts avec la distance au plan galactique.
Estilos ABNT, Harvard, Vancouver, APA, etc.
8

Dumas, feris Barbara Pilar. "Réseaux optiques en mode paquet pour les connexions internes à un centre de données". Thesis, Ecole nationale supérieure Mines-Télécom Atlantique Bretagne Pays de la Loire, 2017. http://www.theses.fr/2017IMTA0057/document.

Texto completo da fonte
Resumo:
La consommation d'énergie des centres de données est un enjeu majeur. Leurs communications internes représentent près du quart de cette consommation. Les technologies de commutation optique ont en principe une meilleure efficacité énergétique que les solutions actuelles. Ce travail porte sur les réseaux optiques en mode paquet pour des centres de données de petite et moyenne taille. Il s'est déroulé dans le cadre du projet EPOC (Energy Proportional and Opportunistic Computing) qui s'intéresse à la réduction de la consommation d'énergie d'un centre de données alimenté partiellement par des sources renouvelables. Une hypothèse clé est l'absence d'un réseau de stockage dédié réduisant ainsi la consommation des interconnexions. Par contre, afin de pouvoir éteindre certains serveurs selon la charge de travail et l'énergie disponible, le débit doit être de l'ordre de 100 Gbit/s. Après un état de l'art des réseaux optiques pour centre de données nous choisissons une solution reposant sur une infrastructure entièrement passive et des émetteurs rapidement accordables en longueur d'onde, proposée récemment dans la littérature (POPI).Nous étudions les limitations dues aux composants (pertes d'insertion, plage d'accord et espacement des canaux). Nous proposons une extension (E-POPI) qui permet d'augmenter le nombre de serveurs connectés en utilisant plusieurs plages de longueurs d'onde. Pour les centres de données de plus grande taille nous proposons un réseau à deux étages (intra- et inter-racks) opérant respectivement dans les bandes C et L, POPI+. La connexion entre étages se fait via une passerelle transparente dans un sens et opaque dans l'autre. Différentes solutions de contrôle des deux étages sont détaillées.Un des éléments essentiels de faisabilité de ces architectures est de concilier la montée en débit avec les pertes du réseau passif d'interconnexion. Les techniques cohérentes des transmissions longue distance ne sont pas actuellement envisageables pour un centre de données. Nous avons donc étudié les formats PAM 4 et 8, par simulation avec différents débits (jusqu'à 112 Gbit/s et récepteurs (PIN, APD et SOA-PIN) et aussi, expérimentalement, à 12 et 18 Gbit/s. Nous avons développé une méthode de compensation des distorsions générées par les différents composants qui procure un compromis entre précision de correction et temps de calcul.Ces résultats nous permettent de déterminer les pertes d'insertion tolérables. Nous les combinons avec les limitations liées à la plage d'accord des émetteurs et à l'encombrement spectral des canaux occupant des fenêtres multiples de 12,5 GHz pour dimensionner les différentes architectures. Les réseaux POPI, E-POPI et POPI+ permettent respectivement la connexion de 48, 99 et 2352 entités à 112 Gbit/s. Nos évaluations tiennent compte d'une possible dispersion des caractéristiques des principaux composants
Data-center energy consumption is nowadays a major issue. Intra-data-center networking accounts almost for a quarter of the data-center total power consumption. Optical switching technologies could provide higher power efficiency than current solutions based on electrical-packet switching. This work focuses on optical-packet-switched networks for small- and medium-size data centers. It takes part of the EPOC (Energy-Proportional and Opportunistic Computing) project, which main interest consists on reducing the overall power consumption of a data center partially powered by renewable sources. A key assumption is that our data center does not rely on a dedicated storage network, in order to reduce the consumption of those interconnections. In addition, with the aim of being able to turn off some servers according to the workload and the available energy, the bit rate must be close to 100 Gbit/s. We have chosen, after studying the state of the art of data-center interconnects, a purely passive network architecture based on fast-wavelength-tunable transmitters under the name of POPI.We study POPI's limitations due to its components (insertion loss, tuning range and channel spacing). We then propose an extension called E-POPI that allows to increase the number of connected servers by using several transmission bands. For larger data centers, we propose POPI+, a two-stage infrastructure for intra- and inter-rack communications operating in the C and L bands, respectively. The connection between both stages is done via a transparent gateway in one direction and an opaque one in the other. We discuss different control solutions for both stages.The feasibility of these architectures depends on, among other factors, dealing with bit-rate increasing and power losses of a passive interconnect. Coherent long-distance-transmission techniques are not currently suited to data centers. We therefore studied PAM 4 and 8 modulation formats with direct detection. On one hand, by simulation, with different bit rates (up to 112 Gbit/s) and receivers (PIN, APD and SOA-PIN) and, on the other hand, experimentally, at 12 and 18 Gbit/s. We have developed a method for compensating the distortions generated by the different network components. Our method takes into account a good tradeoff between correction accuracy and computation time.Simulation results allow us to determine the amount of insertion loss that may be supported. We then combine these results with the limitations of transmitters-tuning range and channel spacing using multiple of 12.5 GHz slots for dimensioning the proposed architectures. POPI, E-POPI and POPI+ interconnects allow the connection of 48, 99 and 2352 entities, respectively, at 112 Gbit/s. Our assessments take into account a potential dispersion of the characteristics of the main architecture components
Estilos ABNT, Harvard, Vancouver, APA, etc.
9

Hamadache, Clarisse. "Recherches d'effets de microlentille gravitationnelle vers le centre galactique avec les données d'Eros II". Université Louis Pasteur (Strasbourg) (1971-2008), 2004. https://publication-theses.unistra.fr/public/theses_doctorat/2004/HAMADACHE_Clarisse_2004.pdf.

Texto completo da fonte
Resumo:
La recherche systématique d'effets de microlentille gravitationnelle vers le centre galactique permet de sonder la structure galactique. Le travail de thèse présenté ici concerne l'analyse des données collectées vers le centre galactique par l'expérience Eros2 pendant toute sa durée (1996-2003) : 66 degrés carrés du ciel situés de part et d'autre du plan galactique étaient surveillés. Les courbes de lumière d'environ 50 millions d'étoiles ont pu être construites dans deux filtres. Les effets de microlentille gravitationnelle d'une durée comprise entre 4 jours et 500 jours et dont l'amplification maximum est supérieure à 2,18 ont été recherchés ; ceci permet de sélectionner des candidats convaincants et constitue une originalité par rapport aux analyses précédentes (Eros2 et concurrents) où l'on considérait une amplification maximum supérieure à 1,34. L'analyse a révélé 139 candidats de microlentille gravitationnelle. Pour calculer la profondeur optique, l'échantillon d'étoiles sources a été restreint aux étoiles situées autour de l'amas des étoiles géantes rouges dans le diagramme couleur magnitude. Ce sous-échantillon constitué de 5,57. 10e6 étoiles présente 91 candidats parmi les 139 avec une efficacité moyenne de détection de 56%. La profondeur optique correspondante est de (1,79 +/- 0,20). 10e-6, elle est compatible avec les valeurs attendues par les modèles galactiques. Ce résultat est en accord avec le dernier résultat du groupe Macho mais est plus bas que celui des expériences concurrentes Ogle et Moa qui donnent une profondeur optique 2 à 3 fois plus grande que celle prédite par les modèles. Par ailleurs, la grande statistique des données Eros2 collectées vers le centre galactique a permis de calculer la profondeur optique pour différentes latitudes galactiques, mettant ainsi en évidence le gradient de profondeur optique attendu du fait de la diminution de la densité d'objets compacts avec la distance au plan galactique
The systematic search for gravitational microlensing effect towards the galactic center makes it possible to probe the galactic structure. The thesis work presented here concerns the analysis of all galactic center data collected by the Eros2 experiment during 7 years (1996-2003) : the survey of 66 square degrees located on both sides of the galactic plane has allowed to build the lightcurves of approximately 50 million stars in two filters. Gravitational microlensing events with a duration ranging between 4 days and 500 days and whose maximum magnification is higher than 2. 18 were required ; this makes it possible to select convincing candidates and constitutes an originality compared to the previous analyses (Eros2 and other experiment) where maximum magnification was required to be higher than 1. 34. The analysis revealed 139 microlensing candidates. This sample contains 91 candidates whose source is a clump red giant star with an associated detection efficiency of 56%. The optical depth obtained for the clump red giant sources is (1,79 +/- 0,20). 10e-6. This value is in good agreement with predicted values as well as with the latest result of the Macho group but it is lower than the Ogle and Moa group results which are 2 to 3 times higher than the predicted one. In addition, the large statistics of galactic center data collected by Eros2 made it possible to calculate the optical depth for various galactic latitudes, and to detect the gradient of optical depth expected in galactic models
Estilos ABNT, Harvard, Vancouver, APA, etc.
10

Kaced, Yazid. "Études du refroidissement par free cooling indirect d’un bâtiment exothermique : application au centre de données". Thesis, Lorient, 2018. http://www.theses.fr/2018LORIS499/document.

Texto completo da fonte
Resumo:
Un centre de données est un site comportant des salles hébergeant un grand nombre d’équipements informatiques. Le fonctionnement de ces équipements informatiques induit des apports de chaleur très conséquents qui doivent être compensés par des systèmes de refroidissement. En effet, les normes imposent des plages restreintes de température et d’humidité dans les salles qui induisent de fortes consommations d’énergie. Il est donc nécessaire de développer et d’optimiser des solutions moins énergivores. Le refroidissement par free cooling consiste à refroidir les équipements en exploitant les conditions climatiques favorables. Les travaux réalisés durant cette thèse s’appuient sur une expérimentation menée dans des conditions climatiques réelles au sein d’un bâtiment. Il s’agit d’étudier le refroidissement de baies informatiques. Pour mettre en place un refroidissement par « free cooling » indirect, la configuration du bâtiment a été modifiée au cours de la thèse et une instrumentation conséquente mise en place. Les objectifs sont de déterminer à partir de séquences de mesures des coefficients de performance, de développer et de valider un modèle numérique destiné à la prédiction du comportement thermo-aéraulique en usage de ce type de solution. Dans un premier temps, des expériences sont menées avec une puissance dissipée à l’intérieur du bâtiment et un refroidissement assuré uniquement par une circulation de l’air extérieur au sein de trois parois. Des modifications ont ensuite été apportées au sein du bâtiment. Une circulation d’air en circuit fermé a été créée à l’intérieure afin de refroidir les baies par un flux d’air traversant. Afin de disposer d’une base de données probante, de nombreuses séquences de mesures avec une ou plusieurs baies sont réalisées dans différentes conditions. La variation des paramètres opératoires permet de bien appréhender le fonctionnement de l’installation et définir les paramètres d’optimisation énergétique. Les modèles numériques sont développés par le biais de TRNSYS / TRNFLOW. La confrontation des simulations à des mesures montre la pertinence de la démarche mise en œuvre
A data center is a warehouse that contains telecommunication equipment, network infrastructure, servers, and computers. This equipment leads to a very high heat dissipation which must be compensated by the use of cooling systems. Telecommunication standards impose restricted climatic ranges (temperatures and humidity) leading to a very high energy consumption devote to air conditioning. The reduction of this energy consumption constitutes a real challenge which should be raised and solved. Many cooling solutions are proposed as the free cooling solution, which consists in cooling equipment by using external air in propitious climatic conditions. The work carried out during this thesis is based on experiments conducted within a building in real climatic conditions in order to study the cooling of telecom cabinets. During this study, the building configuration was modified, an indirect "free cooling" system was set up and a significant instrumentation was implemented. The objectives are to establish performance factors issued from measurements, to develop and to validate a numerical model in order to predict the thermoaeraulic behavior for this type of solution. Initially, experiments are carried out with a power dissipated inside the building and a cooling provided only by an outside air circulation. Then, significant modifications were made into the building to introduce an internal air circulation in a closed loop in order to evacuate the heat dissipated inside cabinets by a crossing airflow. In order to get a convincing database, measurements were conducted by using one and then several cabinets in different conditions. Modifications are made to operating parameters in order to better understand the installation operation and to define the energy optimization parameters. Numerical models are developed through TRNSYS / TRNFLOW. The confrontation of simulations with measurements shows the implemented approach relevance
Estilos ABNT, Harvard, Vancouver, APA, etc.

Livros sobre o assunto "Centre de données virtualisé"

1

Colloque La condition des femmes immigrantes : en savoir davantage (1989 Montréal, Québec). Actes du Colloque La condition des femmes immigrantes : en savoir davantage: Faits actuels et données récentes [organisé par] le Centre des femmes de Montréal, tenu le 21 avril 1989. Montréal: Éditions Communiqu'Elles, 1990.

Encontre o texto completo da fonte
Estilos ABNT, Harvard, Vancouver, APA, etc.
2

Journet, Charles. Commentaire de la première lettre de saint Jean et de ses récits sur la résurrection: Conférences données par le cardinal Journet à Genève au Centre universitaire catholique, du 1er novembre 1969 au 13 juin 1970. [s.l.]: Fondation du cardinal Journet, 1987.

Encontre o texto completo da fonte
Estilos ABNT, Harvard, Vancouver, APA, etc.
3

The Scope of the shopping centre industry in Canada, 1989 : basic facts and economic impacts =: L'industrie des centres commerciaux au Canada, 1989 : données de base et impact économique. New York, NY: International Council of Shopping Centers, 1989.

Encontre o texto completo da fonte
Estilos ABNT, Harvard, Vancouver, APA, etc.

Capítulos de livros sobre o assunto "Centre de données virtualisé"

1

GENOVA, Françoise, e Mark G. ALLEN. "La communauté internationale : le Centre de données astronomiques de Strasbourg". In Partage et valorisation des données de la recherche, 57–71. ISTE Group, 2023. http://dx.doi.org/10.51926/iste.9073.ch3.

Texto completo da fonte
Resumo:
L’astronomie a été, et reste, une discipline pionnière pour le partage des données scientifiques. Ce chapitre retrace le développement du Centre de Données astronomiques de Strasbourg (CDS) depuis sa création en 1972. Le CDS est exemplaire à plusieurs égards : certification CTS, FAIRisation des données, proximité avec la recherche, rôle international… Aujourd’hui, le CDS fait face à plusieurs enjeux – l’évolution rapide de la recherche avec de nouveaux outils, équipements et types de données, la volumétrie des données à gérer, et l’intégration au sein du cloud des infrastructures européennes.
Estilos ABNT, Harvard, Vancouver, APA, etc.
2

FALSAFI, Babak. "Architecture de serveur pour un centre de données post-Moore". In Systèmes multiprocesseurs sur puce 2, 159–72. ISTE Group, 2023. http://dx.doi.org/10.51926/iste.9022.ch6.

Texto completo da fonte
Resumo:
L’émergence des centres de données est une réponse au changement de paradigme informatique vers l’informatique en nuage. Ce chapitre présente les approches récentes et prometteuses de la nouvelle conception logicielle/matérielle des serveurs des centres de données du futur, permettant d’intégrer l’hétérogénéité dans le silicium et facilitant la mise à l’échelle de plate-formes avec les matrices de réseau émergentes.
Estilos ABNT, Harvard, Vancouver, APA, etc.
3

JARLAN, Lionel, Bertrand BONAN, Jean-Christophe CALVET, Patricia DE ROSNAY, Catherine OTTLÉ e Philippe PEYLIN. "Assimilation de données de télédétection pour le suivi des surfaces continentales". In Inversion et assimilation de données de télédétection, 45–95. ISTE Group, 2023. http://dx.doi.org/10.51926/iste.9142.ch2.

Texto completo da fonte
Resumo:
Le suivi des flux et des réservoirs au centre des grands cycles continentaux est indispensable pour une bonne connaissance des ressources en eau, de la production agricole ainsi que pour la prévision du temps et du climat. L’utilisation d’observations pour « corriger » la trajectoire des modèles, incertains par nature, est indispensable. L’objectif de ce chapitre est de dresser un panorama des applications de l’assimilation de données spatiales au suivi des surfaces continentales.
Estilos ABNT, Harvard, Vancouver, APA, etc.
4

Point, Sébastien. "Chapitre 15. L’analyse des données qualitatives : voyage au centre du codage". In Les méthodes de recherche du DBA, 262. EMS Editions, 2018. http://dx.doi.org/10.3917/ems.cheva.2018.01.0262.

Texto completo da fonte
Estilos ABNT, Harvard, Vancouver, APA, etc.
5

Charaudeau, Patrick, Guy Lochard e Jean-Claude Soulages. "En quête d'archives". In En quête d'archives, 17–24. Institut National de l'Audiovisuel (INA), 2018. http://dx.doi.org/10.3917/ina.lecos.2018.01.0018.

Texto completo da fonte
Resumo:
Les trois chercheurs qui répondent à ces questions, tout en étant dans des affectations académiques différentes, faisaient partie du Centre d’Analyse du Discours (CAD) de l’Université Paris 13 dirigé par Patrick Charaudeau. S’accomplissait alors un travail collectif, ce qui veut dire que concepts et méthodes d’analyse étaient élaborés conjointement. Cependant, chacun apportait une expertise propre et Jean-Claude Soulages et Guy Lochard s’étant plus particulièrement spécialisés sur les questions audiovisuelles, il leur revient d’avoir été à l’origine d’un travail inédit concernant le traitement des données.
Estilos ABNT, Harvard, Vancouver, APA, etc.
6

Krausz, Sophie. "IV. Vers la naissance de l’État : des données archéologiques et historiques confrontées aux modèles anthropologiques". In Des premières communautés paysannes à la naissance de l’État dans le Centre de la France : 5000-50 a.C., 293–344. Ausonius Éditions, 2016. http://dx.doi.org/10.4000/books.ausonius.15355.

Texto completo da fonte
Estilos ABNT, Harvard, Vancouver, APA, etc.
7

Myers, Marie J. "Viser une production optimale". In L'enseignement de l'oral en classe de langue, 15–28. Editions des archives contemporaines, 2020. http://dx.doi.org/10.17184/eac.3491.

Texto completo da fonte
Resumo:
Pour optimiser la production orale il faut à la fois viser une augmentation du temps de prise de parole et créer des tâches de plus en plus exigeantes qui soient également motivantes pour engendrer un maximum de participation. Dans un premier temps je présente l’amélioration de la production orale dans le modèle de centres d’activités. La démarche est utilisée pour motiver et faire travailler de manière intensive en petits groupes, dans la salle de cours même. Il s’agit d’une gestion de petits groupes passant d’un centre à un autre tous les quarts d’heure environ dans le but de compléter les tâches proposées au centre en question. Il y a sans doute toute une complexité inhérente à ce modèle, mais une fois que la préparation adéquate est faite et que la première mise en route est complétée, les avantages de cette démarche sont nombreux. On stimule l’oral en responsabilisant les apprenants, en prévoyant des tâches exigeant la participation de tous les membres du groupe, en amenuisant le besoin de gestion de classe et en permettant le développement individuel et en interaction des habiletés langagières, avec une centration sur l’oral. L’objectif est de développer les capacités d’usagers autonomes de la langue après avoir fourni un encadrement initial avec un modèle. Puis il faut donner les directives aptes à assurer le bon fonctionnement de chaque centre sans le besoin de recours à l’enseignante. Des directives précises sont données avec des exemples à l’appui. Dans un deuxième temps je décris comment une activation physique allant de pair avec un travail de production orale est à même d’ajouter un aspect stimulant supplémentaire.
Estilos ABNT, Harvard, Vancouver, APA, etc.
8

MEDZOGO, Sylvain, e Laurent GAJO. "Tensions entre norme pédagogique et normes endogènes du français". In L’expansion de la norme endogène du français en francophonie, 225–46. Editions des archives contemporaines, 2023. http://dx.doi.org/10.17184/eac.7572.

Texto completo da fonte
Resumo:
Le français vit et se développe à travers une multitude de variétés qui définissent l’espace francophone. S’il parait dès lors raisonnable d’aborder la francophonie en tant qu’espace pluricentrique, les normes à l’œuvre, notamment dans le champ de l’éducation, restent souvent attachées à un seul centre et à un français de référence largement partagé. Cet article explore la façon dont les enseignant-es et les futur-es enseignant-es de l’Ecole Normale Supérieure de Yaoundé au Cameroun et de la Haute Ecole Pédagogique de Lucerne en Suisse germanophone se positionnent par rapport à la langue française et à la francophonie. Il s’agit, de manière plus concrète, de montrer comment la langue française est aujourd’hui enseignée, apprise et perçue dans les institutions de formation. Dans cette optique, nous avons adopté une méthode largement qualitative consistant, d’une part, en une analyse des représentations sociales des différents protagonistes engagés dans cette étude et, d’autre part, en l’examen de deux manuels de français au programme au Cameroun francophone et en Suisse germanophone. Les résultats montrent une orientation variable vers des normes locales, la proximité ne faisant pas toujours référence. Si une certaine tension entre la norme pédagogique et les normes sociales en vigueur localement semble prévisible, la constance de cette tension dans un espace aussi vaste et pluriel que la francophonie peut surprendre. Cet article, après avoir examiné les données de terrain, propose d’aborder de manière critique, notamment dans la formation des enseignant-es, des notions sociolinguistiques comme celles de « langue standard », « langue locale », « français régional » ou « français courant ».
Estilos ABNT, Harvard, Vancouver, APA, etc.
9

MAYET, A., S. DURON, C. LAVAGNA, J. MARCHI, C. MARIMOUTOU, R. MICHEL e J. B. MEYNARD. "Comportements à risque chez le militaire en métropole et en opérations". In Médecine et Armées Vol. 46 No.1, 73–80. Editions des archives contemporaines, 2018. http://dx.doi.org/10.17184/eac.7371.

Texto completo da fonte
Resumo:
La prévention des usages de substances psychoactives et des autres comportements à risques constitue une priorité du Service de santé des armées. Le présent article dresse un état des lieux des connaissances actuelles sur les comportements à risque dans les armées françaises, particulièrement chez les militaires déployés. Méthodes : le Centre d’épidémiologie et de santé publique des armées a mis en place en 2013 le pôle de recherche « Comportements et santé », destiné à harmoniser et à fédérer les différents projets de recherche ayant trait aux comportements à risque. Une revue des principaux résultats de ces recherches et des hypothèses qu’ils soulèvent a été menée. Résultats : l’importance épidémiologique des conduites addictives chez les militaires semble proche de celle observée en population générale à genre et âge égaux. Cependant, les militaires semblent soumis à des déterminants spécifiques associés aux usages de substances psychoactives : déploiement en opérations extérieures, stress, effet de groupe… Certains de ces déterminants sont également associés à d’autres comportements tels que comportements sexuels à risque ou non adhésion aux mesures de préventions (prophylaxie antipaludique, lutte antivectorielle). Ces données, associées à la fréquence élevée de cooccurrence entre les comportements à risque chez un même individu, suggèrent des profils de personnalité prédisposant aux prises de risques multiples. Discussion : les comportements à risque, qui ne se limitent pas aux conduites addictives, constituent un problème de santé publique majeur pour les armées en raison des risques d’altération de la santé et de la capacité opérationnelle des forces. De plus, les maladies et blessures que ces comportements occasionnent ont un caractère évitable. La mise en évidence de profils de militaires intégrant de façon simultanée plusieurs conduites à risque permettrait le développement de programmes de prévention non plus axés sur un comportement en particulier, mais reposant sur une approche plus globale.
Estilos ABNT, Harvard, Vancouver, APA, etc.

Trabalhos de conferências sobre o assunto "Centre de données virtualisé"

1

Andersson, Fred. "Groupe µ and “the system of plastic form” -for an evaluation-". In Le Groupe μ : quarante ans de rhétorique – trente-trois ans de sémiotique visuelle. Limoges: Université de Limoges, 2010. http://dx.doi.org/10.25965/as.3097.

Texto completo da fonte
Resumo:
Le Groupe µ et "le système de formes plastiques” -à propos d’une évaluation- L’objectif de cet article est de fournir quelques exemples et de proposer certains éclaircissements qui peuvent contribuer à la compréhension de la théorie du signe plastique conçu par le Groupe μ. Plus précisément, l’article porte sur les éléments de la théorie en question qui constituent une analyse du système de la forme tant qu’elle est distincte du système de la couleur et du système de la texture. Dans l’espoir de faire connaître quelques-uns des fondations et des implications de ce système de forme plastique, principalement aux lecteurs anglo-saxons, l’article tente également de clarifier sa place au sein de la théorie générale du signe visuel articulé par Groupe μ dans son Traité du signe visuel (1992). La première section de l’article traite de la notion esthétique générale de forme et de sa relation avec d'une part la notion de forme/formation visuelle et de l'autre la notion de forme sémiotique telle qu’elle a été développée par Hjelsmlev. On prend note du risque que les visées d’une sémiotique plastique puissent être indûment confondues avec celles du formalisme dans l'esthétique. Selon l’avis de l’auteur, les études de sémiotique visuelle ne sauraient bénéficier de ce genre de confusion, mais devraient plutôt tenter de maintenir sa distance par rapport aux conjectures et luttes de pouvoir dans le(s) monde(s) de l'art. La deuxième section explique la distinction faite par le Groupe μ entre le signe iconique et le signe plastique, conçus comme des couches séparées du signe visuel. Selon le Groupe μ, le signe iconique forme une structure triadique contenant le signifiant, le type et le référent. Il y a des similarités entre cette conception et le triangle d’Ogden & Richards. Or, la notion du Type a des implications plus vastes que la conception d’Ogden & Richards, selon lesquels il existe une image très générale qui met en relation symbole/signifier et référent – le type est ici le résultat de modélisations et de catégorisations, et il est valable aussi bien pour le signe iconique que pour le signe plastique. Par définition, le signe plastique manque de référent : la relation entre un motif et ses variations dépend donc uniquement du rapport Signifier/Type. Sur la base de cette relation Signifier/Type, les signes plastiques apparaissent, selon le Groupe µ, aux trois niveaux de la sémiose, sur le niveau purement plastique, sur le niveau extravisuel (ou symbolique), et dans une interaction avec le signe iconique sur le niveau iconico-plastique. La troisième section de l’article explique le système de forme plastique telle qu’elle est conçue par le Groupe μ. Le système est constitué par trois « formemes » (ou catégories), à savoir position, dimension et l'orientation. Il est conçu en termes de figures apparaissant dans un plan restreint. Comme les relations fondamentales dans le plan sont celles entre le centre - la marge, le haut - le bas et la gauche - la droite, le système de positions alternatives (par exemple marginal, au-dessus et au centre) est isomorphe au système d'autres orientations (par exemple vers l'intérieur, d'en haut vers le centre). Le système d'autres dimensions/tailles, par contraste, est défini par le biais de la fonction de la taille de la figure en relation à la taille du plan de l’image et le point focal. Ces valeurs plastiques de position, de dimension et d’orientation sont les signifiants du système. Ils sont liés à leurs signifiés de la manière suivante : la position à l’attraction, la dimension à la domination, l'orientation à l'équilibre. Cette corrélation est validée par les auteurs au moyen d’une démonstration visuelle. Dans la quatrième et dernière section de l’article, des observations sont faites au sujet des répercussions plus vastes ainsi que des applications du système. Conformément à la visée du propre Groupe µ à surmonter les limitations qui résultent de la spécialisation de disciplines telles que la psychologie de la perception, l'auteur soutient que des systèmes théoriques comme celui du système plastique peut fournir un cadre interdisciplinaire qui facilite l’évaluation à la fois des données scientifiques et des discours philosophiques généraux concernant le monde visuel. En ce qui concerne des applications plus proches, l'auteur estime que les théories du sens visuel et de la rhétorique du Groupe μ, si elles étaient plus largement connues, contribueraient considérablement à la compréhension de l'importance du sens plastique dans la communication visuelle et au développement des méthodes pédagogiques pour la description et l’interprétation de l'image.
Estilos ABNT, Harvard, Vancouver, APA, etc.

Relatórios de organizações sobre o assunto "Centre de données virtualisé"

1

Jabet, Carole, e Cécile Petitgand. Propositions de principes directeurs : Concilier l'acceptabilité sociale active à l'utilisation secondaire des renseignements personnels sur la santé. Observatoire international sur les impacts sociétaux de l’intelligence artificielle et du numérique, setembro de 2022. http://dx.doi.org/10.61737/yogf7213.

Texto completo da fonte
Resumo:
Dans la cadre de l’initiative Accès aux données de la Table nationale des directeurs de la recherche (TNDR), coordonnée par le Centre de recherche du CHUM (CR-CHUM) et le Fonds de recherche du Québec – Santé (FRQS), l’OBVIA a activement contribué, depuis mai 2021, aux travaux développés au sein du groupe de travail dédié à l’acceptabilité sociale de l’accès et de l’utilisation des données de santé réunissant aux cotés d’une dizaine de partenaires et d’experts au Québec et à l’international. Parmi les travaux issus de ces concertations, ont été élaborés des principes directeurs visant à guider les individus et organisations dans l’adoption de bonnes pratiques pour informer et engager les citoyens dans les projets fondés sur la collecte et la valorisation des données en santé et services sociaux. Le présent document est une réalisation de l’OBVIA en collaboration avec le Groupe de travail sous la responsabilité de Carole Jabet et Cécile Petitgand (FRQS).
Estilos ABNT, Harvard, Vancouver, APA, etc.
2

Dudoit, Alain. Les espaces européens communs de données : une initiative structurante nécessaire et adaptable au Canada. CIRANO, outubro de 2023. http://dx.doi.org/10.54932/ryht5065.

Texto completo da fonte
Resumo:
Le Rapport bourgogne, publié par le CIRANO en juillet 2023, préconise la création d'un espace commun de données dans le corridor commercial stratégique des Grands Lacs et du Saint-Laurent d'ici 2030. Cette proposition s’appuie notamment sur trois rapports distincts de politiques publiés en 2022 par le groupe de travail national sur la chaîne d’approvisionnement, le Conseil des ministres responsables des transports et de la sécurité routière (COMT) et le Comité permanent de la Chambre des communes sur les transports, l'infrastructure et les collectivités. Le constat posé et les recommandations qui découlent de ces rapports soulèvent des questions de fond qui sont au centre des enjeux critiques de gouvernance, de culture d’organisation, de capacité d’exécution, de mobilisation des parties prenantes du public et du privé, ainsi que de la sous-utilisation des données au sein de l’appareil gouvernemental canadien mis à rude épreuve par des années de retard et exacerbée par les perturbations récentes liées à des catastrophes climatiques anticipées. La création d’un espace commun de données est envisagée comme un investissement structurant de l'infrastructure essentielle du Canada pour le transport intermodal et la chaîne d’approvisionnement. Ce document de travail sur les Espaces Européens Communs de Données (EECD) prolonge la synthèse et les recommandations publiées en juillet dernier. Face à l’accélération de l’économique numérique, la gouvernance et le partage efficace des données sont devenus des enjeux fondamentaux pour les politiques publiques à tous les niveaux de juridictions et dans tous domaines de l’activité humaine. Le présent document vise à examiner les initiatives et les défis associés à la gouvernance des données, en mettant particulièrement l'accent sur les Espaces Européens Communs de Données (EECD) et leur pertinence pour le contexte canadien. Il explore la complexité inhérente à la gouvernance des données, qui doit concilier les spécificités sectorielles avec des principes de gouvernance plus universels. Ce faisant, il souligne l'importance d'une action stratégique et coordonnée pour maximiser les avantages sociaux et économiques des données. Le document de travail sur les EECD étend la portée du Rapport bourgogne en fournissant une analyse opérationnelle de l'initiative en cours au sein de l'Union européenne (UE). Celle-ci découle de la stratégie européenne des données de 2020 et vise à établir douze espaces communs de données dans des secteurs stratégiques, y compris la mobilité et les transports. Le document se divise en trois parties principales. La première partie offre un aperçu des politiques publiques relatives aux données au Canada et dans l'UE entre 2018 et 2023. La deuxième partie se concentre sur les implications et les leçons tirées de l'analyse d'impact qui soutient l'adoption de la législation sur la gouvernance des données par les institutions européennes. Cette loi vise à établir un cadre réglementaire pour la création des espaces communs de données en Europe. La troisième partie aborde le déploiement actuel des EECD, en soulignant les étapes clés et les processus en cours. Le document met en évidence des similitudes notables entre l'UE et le Canada en ce qui concerne l'identification des enjeux et la formulation des objectifs de politique publique en matière de données. Il souligne aussi des différences entre ces deux partenaires stratégiques dans l’optimisation du partage des données entre les juridictions et parties prenantes. Ces deux partenaires stratégiques se distinguent cependant par une différence fondamentale: l'absence d'une mutualisation efficace des ressources au sein de l’appareil intergouvernemental canadien dans la poursuite d’objectifs communs face à des enjeux majeurs communs tel celui des données à la grande différence de l’entreprise des EECD par l’UE dans la poursuite d’objectifs identiques de positionnement comme chef de file mondial l’économie des données. Cette absence de considération et, encore moins, d’action conjointe par l’appareil intergouvernemental canadien de mise en œuvre d’une stratégie commune des données au Canada est dommageable. Pour être efficace, la réponse canadienne doit être agile, axée sur les résultats, et intégrée à travers les différentes juridictions. La gestion rigoureuse, l’utilisation responsable et le partage organisé des données au sein et entre les différentes juridictions sont des éléments cruciaux pour aborder les défis complexes et les risques majeurs auxquels le Canada est confronté. Ni le gouvernement fédéral ni ceux des provinces ne sont actuellement bien positionnés pour traiter ensemble les données comme un actif stratégique commun. La résolution des obstacles réglementaires, juridiques et techniques à l'échange de données entre juridictions et organisations nécessite la création d'un espace commun de données qui à son tour implique une combinaison des outils et des infrastructures requises à cette fin, ainsi qu'un traitement des questions de confiance notamment par des règles communes.
Estilos ABNT, Harvard, Vancouver, APA, etc.
3

Dudley, J. P., e S. V. Samsonov. Système de traitement automatisé du gouvernement canadien pour la détection des variations et l'analyse des déformations du sol à partir des données de radar à synthèse d'ouverture de RADARSAT-2 et de la mission de la Constellation RADARSAT : description et guide de l'utilisateur. Natural Resources Canada/CMSS/Information Management, 2021. http://dx.doi.org/10.4095/329134.

Texto completo da fonte
Resumo:
Remote sensing using Synthetic Aperture Radar (SAR) offers powerful methods for monitoring ground deformation from both natural and anthropogenic sources. Advanced analysis techniques such as Differential Interferometric Synthetic Aperture Radar (DInSAR), change detection, and Speckle Offset Tracking (SPO) provide sensitive measures of ground movement. With both the RADARSAT-2 and RADARSAT Constellation Mission (RCM) SAR satellites, Canada has access to a significant catalogue of SAR data. To make use of this data, the Canada Centre for Mapping and Earth Observation (CCMEO) has developed an automated system for generating standard and advanced deformation products from SAR data using both DInSAR and SPO methods. This document provides a user guide for this automated processing system.
Estilos ABNT, Harvard, Vancouver, APA, etc.
4

Saulais, Laure, e Maurice Doyon. Impact du design de questions sur la perception des compensations proposées et les intentions de participation au pad: étude de préfaisabilité. CIRANO, agosto de 2022. http://dx.doi.org/10.54932/ziga3839.

Texto completo da fonte
Resumo:
Le Plan d’agriculture durable (PAD) du gouvernement du Québec offre aux entreprises agricoles un ensemble de possibilités pour accélérer l’adoption des meilleures pratiques agroenvironnementales d’ici 2030. Il est prévu que des rétributions soient offertes pour compenser les coûts encourus suite à la mise en œuvre de certaines pratiques. Cette étude s’appuie sur les principes de l’économie comportementale et les techniques de l’économie expérimentale pour mettre en évidence des leviers comportementaux de l’acceptation et de l’adhésion des entreprises agricoles à certaines pratiques proposées par le PAD. À partir de l’analyse de données fournies par le Centre d’études sur les coûts de production en agriculture (CECPA) recueillies auprès de 489 répondants, les auteurs concluent que : 1. La façon de présenter l’information aux agricultrices et agriculteurs a un impact sur leur perception du montant de rétribution qui leur est présenté. 2. Présenter l’information comme un incitatif ou un bénéfice est préférable à présenter l’information comme une compensation de coûts. 3. Ajouter un préambule à l’offre de rétribution qui reconnaît les efforts déjà faits par les entreprises agricoles québécoises et la hauteur des défis vers l'amélioration du bilan environnemental de leur entreprise crée une émotion négative, réduisant ainsi la probabilité que les personnes interrogées acceptent un niveau donné de rétribution.
Estilos ABNT, Harvard, Vancouver, APA, etc.
5

Clark, Louise, Jo Carpenter e Joe Taylor. Des idées pour le travail d’influence : comprendre les chemins d’impact dans la réponse aux crises. Institute of Development Studies, fevereiro de 2024. http://dx.doi.org/10.19088/core.2023.019.

Texto completo da fonte
Resumo:
Le programme Covid-19 Responses for Equity (CORE) est une initiative sur trois ans financée par le Centre de recherches pour le développement international (CRDI) du Canada, qui a rassemblé 20 projets issus des pays du Sud afin de comprendre les impacts socio-économiques de la pandémie de Covid-19, d’améliorer les réponses existantes et d’élaborer de meilleures options politiques pour favoriser la relance. Les recherches ont porté sur 42 pays d’Afrique, d’Asie, d’Amérique latine et du Moyen-Orient afin de comprendre comment la pandémie a affecté les régions et les personnes les plus vulnérables en aggravant les fragilités existantes. Les projets de recherche ont couvert un large éventail de thèmes, notamment les politiques macroéconomiques de soutien et de redressement, l’appui aux activités économiques essentielles et la protection des entreprises informelles, des petits producteurs et des femmes au travail, ainsi que la promotion d’une gouvernance démocratique pour renforcer la responsabilité, l’inclusion sociale et l’engagement civique. L’Institute of Development Studies (IDS) a apporté aux partenaires de recherche du programme CORE un appui à l’application des connaissances afin de maximiser l’apprentissage généré dans l’ensemble du portefeuille de recherche et d’approfondir l’engagement auprès des gouvernements, de la société civile et de la communauté scientifique. Dans le cadre de ce soutien, l’équipe d’application des connaissances de l’IDS a travaillé avec les équipes de projet du programme CORE pour reconstruire et réfléchir à leurs chemins d’impact afin de faciliter l’échange de connaissances Sud-Sud sur des stratégies efficaces pour l’impact de la recherche et de partager l’apprentissage sur la façon dont la cohorte du programme CORE a influencé les politiques et produit des changements. Ce rapport présente une vue d’ensemble de ces chemins d’impact et des enseignements tirés d’une sélection de projets choisis pour représenter la diversité des approches visant à mobiliser les décideurs politiques, la société civile et les médias afin de générer et de partager des données probantes des effets de la pandémie sur différents groupes vulnérables.
Estilos ABNT, Harvard, Vancouver, APA, etc.
6

Rousseau, Henri-Paul. Gutenberg, L’université et le défi numérique. CIRANO, dezembro de 2022. http://dx.doi.org/10.54932/wodt6646.

Texto completo da fonte
Resumo:
Introduction u cours des deux derniers millénaires, il y a eu plusieurs façons de conserver, transmettre et même créer la connaissance ; la tradition orale, l’écrit manuscrit, l’écrit imprimé et l’écrit numérisé. La tradition orale et le manuscrit ont dominé pendant plus de 1400 ans, et ce, jusqu’à l’apparition du livre imprimé en 1451, résultant de l’invention mécanique de Gutenberg. Il faudra attendre un peu plus de 550 ans, avant que l’invention du support électronique déloge à son tour le livre imprimé, prenant une ampleur sans précédent grâce à la révolution numérique contemporaine, résultat du maillage des technologies de l’informatique, de la robotique et de la science des données. Les premières universités qui sont nées en Occident, au Moyen Âge, ont développé cette tradition orale de la connaissance tout en multipliant l’usage du manuscrit créant ainsi de véritables communautés de maîtres et d’étudiants ; la venue de l’imprimerie permettra la multiplication des universités où l’oral et l’écrit continueront de jouer un rôle déterminant dans la création et la transmission des connaissances même si le « support » a évolué du manuscrit à l’imprimé puis vers le numérique. Au cours de toutes ces années, le modèle de l’université s’est raffiné et perfectionné sur une trajectoire somme toute assez linéaire en élargissant son rôle dans l’éducation à celui-ci de la recherche et de l’innovation, en multipliant les disciplines offertes et les clientèles desservies. L’université de chaque ville universitaire est devenue une institution florissante et indispensable à son rayonnement international, à un point tel que l’on mesure souvent sa contribution par la taille de sa clientèle étudiante, l’empreinte de ses campus, la grandeur de ses bibliothèques spécialisées ; c’est toutefois la renommée de ses chercheurs qui consacre la réputation de chaque université au cours de cette longue trajectoire pendant laquelle a pu s’établir la liberté universitaire. « Les libertés universitaires empruntèrent beaucoup aux libertés ecclésiastiques » : Étudiants et maîtres, qu'ils furent, ou non, hommes d'Église, furent assimilés à des clercs relevant de la seule justice ecclésiastique, réputée plus équitable. Mais ils échappèrent aussi largement à la justice ecclésiastique locale, n'étant justiciables que devant leur propre institution les professeurs et le recteur, chef élu de l’université - ou devant le pape ou ses délégués. Les libertés académiques marquèrent donc l’émergence d'un droit propre, qui ménageait aux maîtres et aux étudiants une place à part dans la société. Ce droit était le même, à travers l'Occident, pour tous ceux qui appartenaient à ces institutions supranationales que furent, par essence, les premières universités. À la fin du Moyen Âge, l'affirmation des États nationaux obligea les libertés académiques à s'inscrire dans ce nouveau cadre politique, comme de simples pratiques dérogatoires au droit commun et toujours sujettes à révision. Vestige vénérable de l’antique indépendance et privilège octroyé par le prince, elles eurent donc désormais un statut ambigu » . La révolution numérique viendra fragiliser ce statut. En effet, la révolution numérique vient bouleverser cette longue trajectoire linéaire de l’université en lui enlevant son quasi monopole dans la conservation et le partage du savoir parce qu’elle rend plus facile et somme toute, moins coûteux l’accès à l’information, au savoir et aux données. Le numérique est révolutionnaire comme l’était l’imprimé et son influence sur l’université, sera tout aussi considérable, car cette révolution impacte radicalement tous les secteurs de l’économie en accélérant la robotisation et la numérisation des processus de création, de fabrication et de distribution des biens et des services. Ces innovations utilisent la radio-identification (RFID) qui permet de mémoriser et de récupérer à distance des données sur les objets et l’Internet des objets qui permet aux objets d’être reliés automatiquement à des réseaux de communications .Ces innovations s’entrecroisent aux technologies de la réalité virtuelle, à celles des algorithmiques intelligentes et de l’intelligence artificielle et viennent littéralement inonder de données les institutions et les organisations qui doivent alors les analyser, les gérer et les protéger. Le monde numérique est né et avec lui, a surgi toute une série de compétences radicalement nouvelles que les étudiants, les enseignants et les chercheurs de nos universités doivent rapidement maîtriser pour évoluer dans ce Nouveau Monde, y travailler et contribuer à la rendre plus humain et plus équitable. En effet, tous les secteurs de l’activité commerciale, économique, culturelle ou sociale exigent déjà clairement des connaissances et des compétences numériques et technologiques de tous les participants au marché du travail. Dans cette nouvelle logique industrielle du monde numérique, les gagnants sont déjà bien identifiés. Ce sont les fameux GAFAM (Google, Apple, Facebook, Amazon et Microsoft) suivis de près par les NATU (Netflix, Airbnb, Tesla et Uber) et par les géants chinois du numérique, les BATX (Baidu, Alibaba, Tenant et Xiaomi). Ces géants sont alimentés par les recherches, les innovations et les applications mobiles (APPs) créées par les partenaires de leurs écosystèmes regroupant, sur différents campus d’entreprises, plusieurs des cerveaux qui sont au cœur de cette révolution numérique. L’université voit donc remise en question sa capacité traditionnelle d’attirer, de retenir et de promouvoir les artisans du monde de demain. Son aptitude à former des esprits critiques et à contribuer à la transmission des valeurs universelles est également ébranlée par ce tsunami de changements. Il faut cependant reconnaître que les facultés de médecine, d’ingénierie et de sciences naturelles aux États-Unis qui ont développé des contacts étroits, abondants et suivis avec les hôpitaux, les grandes entreprises et l’administration publique et cela dès la fin du 19e siècle ont été plus en mesure que bien d’autres, de recruter et retenir les gens de talent. Elle ont énormément contribué à faire avancer les connaissances scientifiques et la scolarisation en sciences appliquées ..La concentration inouïe des Prix Nobel scientifiques aux États-Unis est à cet égard très convaincante . La révolution numérique contemporaine survient également au moment même où de grands bouleversements frappent la planète : l’urgence climatique, le vieillissement des populations, la « déglobalisation », les déplacements des populations, les guerres, les pandémies, la crise des inégalités, de l’éthique et des démocraties. Ces bouleversements interpellent les universitaires et c’est pourquoi leur communauté doit adopter une raison d’être et ainsi renouveler leur mission afin des mieux répondre à ces enjeux de la civilisation. Cette communauté doit non seulement se doter d’une vision et des modes de fonctionnement adaptés aux nouvelles réalités liées aux technologies numériques, mais elle doit aussi tenir compte de ces grands bouleversements. Tout ceci l’oblige à s’intégrer à des écosystèmes où les connaissances sont partagées et où de nouvelles compétences doivent être rapidement acquises. Le but de ce texte est de mieux cerner l’ampleur du défi que pose le monde numérique au milieu universitaire et de proposer quelques idées pouvant alimenter la réflexion des universitaires dans cette démarche d’adaptation au monde numérique. Or, ma conviction la plus profonde c’est que la révolution numérique aura des impacts sur nos sociétés et notre civilisation aussi grands que ceux provoqués par la découverte de l’imprimerie et son industrialisation au 15e siècle. C’est pourquoi la première section de ce document est consacrée à un rappel historique de la révolution de l’imprimerie par Gutenberg alors que la deuxième section illustrera comment les caractéristiques de la révolution numérique viennent soutenir cette conviction si profonde. Une troisième section fournira plus de détails sur le défi d’adaptation que le monde numérique pose aux universités alors que la quatrième section évoquera les contours du changement de paradigme que cette adaptation va imposer. La cinquième section servira à illustrer un scénario de rêves qui permettra de mieux illustrer l’ampleur de la gestion du changement qui guette les universitaires. La conclusion permettra de revenir sur quelques concepts et principes clefs pour guider la démarche vers l’action. L’université ne peut plus « être en haut et seule », elle doit être « au centre et avec » des écosystèmes de partenariats multiples, dans un modèle hybride physique/virtuel. C’est ainsi qu’elle pourra conserver son leadership historique de vigie du savoir et des connaissances d’un monde complexe, continuer d’établir l’authenticité des faits et imposer la nécessaire rigueur de la science et de l’objectivité.
Estilos ABNT, Harvard, Vancouver, APA, etc.
Oferecemos descontos em todos os planos premium para autores cujas obras estão incluídas em seleções literárias temáticas. Contate-nos para obter um código promocional único!

Vá para a bibliografia