Academic literature on the topic 'Gestion des centres de données'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the lists of relevant articles, books, theses, conference reports, and other scholarly sources on the topic 'Gestion des centres de données.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Journal articles on the topic "Gestion des centres de données"

1

Zwarich, Natasha, Dominique Maurel, Pascal Lemelin, Diane Baillargeon, François David, and Theresa Rowat. "Les centres et les services d’archives du Québec se font tirer le portrait… statistique. Quelques considérations méthodologiques et résultats d’une préenquête1." Archives 47, no. 1 (November 9, 2017): 125–52. http://dx.doi.org/10.7202/1041829ar.

Full text
Abstract:
L’étude menée par les auteurs vise à identifier les données à recueillir sur les centres et services d’archives du Québec afin de dresser un portrait statistique de ces institutions lors d’une enquête de grande envergure prévue pour la fin de 2016 et le début de 2017. Cet article présente les étapes réalisées dans le cadre d’une préenquête visant à la préparer. Douze participants ont répondu au questionnaire de préenquête qui portait sur divers aspects de la pratique archivistique, dont l’administration, les ressources, les documents numériques ainsi que la gestion documentaire et la gestion des archives historiques. Les résultats obtenus mettent en lumière les défis méthodologiques posés par la collecte de données statistiques et les efforts de normalisation à entreprendre pour disposer de telles données. Au terme de l’ensemble du projet, les données recueillies constitueront un premier jalon vers une stratégie d’amélioration continue des centres et services d’archives. De plus, elles favoriseront l’étude de l’évolution du milieu professionnel archivistique.
APA, Harvard, Vancouver, ISO, and other styles
2

Benallah, Samia, and Nadège Vezinat. "Les âges du soin : missions de santé publique et travail avec les âges dans les centres de santé." Formation emploi 168 (2024): 21–47. http://dx.doi.org/10.4000/12r2w.

Full text
Abstract:
Cet article examine les tensions dans les centres de santé entre un cadre règlementaire universaliste et des politiques publiques catégorielles, notamment en termes d’âge (enfant, adolescent, personne âgée). En s’appuyant sur les données de gestion des centres de santé, nous identifions une forte valorisation de la prise en charge des plus âgés par les incitations tarifaires. En fonction des profils de soignants et des besoins exprimés sur leur territoire, les équipes soignantes au sein des structures orientent l’activité proposée autour de missions de santé publique ciblées sur l’âge des patients. L’enquête qualitative s'intéresse ainsi à la manière dont ces patientèles différenciées modifient les pratiques professionnelles et le travail des soignants.
APA, Harvard, Vancouver, ISO, and other styles
3

Abraham, Jocelyne, Franck Brillet, Patricia Coutelle, and Annabelle Hulin. "Les dispositifs de gestion des compétences dans les PME : mythe ou réalité ?" Revue internationale P.M.E. 24, no. 2 (October 15, 2012): 139–65. http://dx.doi.org/10.7202/1012688ar.

Full text
Abstract:
L’objectif de cet article est d’analyser la présence de dispositifs de gestion des compétences au sein des PME par la réalisation d’une étude empirique auprès de 28 entreprises de la Région Centre (France). Notre analyse s’inscrit dans le champ de recherches récentes comme celles s’intéressant à la gestion des compétences dans les TPE et les PME. Elle consistera, dans un premier temps, à identifier quels sont ces dispositifs et comment les classer pour, dans un second temps, en révéler les enjeux et les principaux enseignements. La problématique de cette recherche est donc de savoir quels sont les types de GEC (gestion des emplois et des compétences) mis en oeuvre au sein des PME, pour quelles raisons et comment elles procèdent. Pour répondre à cette problématique, une collecte de données primaires, par récits de pratiques, a été réalisée auprès de 28 dirigeants de PME de la Région Centre. L’analyse des données collectées laisse apparaître trois dimensions clés : les enjeux stratégiques, l’instrumentation et la transmission des connaissances.
APA, Harvard, Vancouver, ISO, and other styles
4

Arsène, DAGA Dossou, QUENUM Comlan Irené Eustache Zokpénou, AGBANOU B. Thierry, CHABI Roméo, GNELE Josée E., and TENTE H. A. Brice. "Rôles Et Faiblesses Des Acteurs Dans La Mise En Œuvre Des Mesures Environnementales Des Projets D’aménagement Routier Au Bénin." International Journal of Progressive Sciences and Technologies 38, no. 1 (April 30, 2023): 377. http://dx.doi.org/10.52155/ijpsat.v38.1.5258.

Full text
Abstract:
La gouvernance environnementale des projets d’aménagement routier est une préoccupation des pouvoirs publics, des partenaires techniques et financiers et des différentes parties prenantes de la société. Au Bénin, cette activité est confrontée à des difficultés qui entachent parfois la mise en œuvre des outils de protection de l’environnement. L’objectif de cette recherche est d’analyser les responsabilités et les faiblesses des acteurs intervenant dans la mise en œuvre de l’aménagement des projets routiers au Bénin.L’approche méthodologique utilisée a consisté en une recherche documentaire et à la collecte de données à travers des entretiens avec des personnes-ressources et responsables d’institutions. Au total vingt-six (26) entretiens individuels et seize (16) focus groupes ont été réalisés. Avant le traitement proprement dit, un dépouillement annuel des données a été fait. Ces données ont été ensuite transcrites et classées selon les centres d’intérêt. Le modèle SWOT a permis d’analyser les résultats obtenus.Il ressort des résultats obtenus que des projets d’aménagement routier au Bénin n’ont pas bénéficié d’Étude d’Impact Environnemental et Social (EIES). Pour ceux qui en ont bénéficié, le Plan de Gestion Environnemental et Social (PGES) n’est pas correctement mise en œuvre. Plusieurs facteurs expliquent cette non mise en œuvre des mesures environnementales et sociales. En effet, les différentes structures impliquées dans la gestion environnementale et sociale des projets d’aménagement routier n’ont pas joué pleinement leurs rôles pour des raisons logistiques, économiques, administratives, institutionnelles et politiques. Ainsi, de 2014 à 2018 sur un total de cent seize (116) suivi de PGES programmés, seulement 41 ont fait l’objet de suivi, soit un ratio de 35%.
APA, Harvard, Vancouver, ISO, and other styles
5

Maaradj, Houari, and Kamel Rezig. "ENTERPRISE INFORMATION PORTALS VS. ENTERPRISE KNOWLEDGE PORTALS." Dirassat Journal Economic Issue 1, no. 1 (January 1, 2010): 1–14. http://dx.doi.org/10.34118/djei.v1i1.528.

Full text
Abstract:
On appelle "portail d'entreprise" une plate-forme intranetdonnant accès à des données de l'entreprise ainsi qu'à desressources du système d'information regroupées au sein d'uneinterface unique.Le portail d'entreprise est ainsi la porte d'entrée vers les données dusystème d'information de l'entreprise pour l'ensemble du personnelet éventuellement les partenaires. L'enjeu du portail est de chercherà centrer l'utilisateur au sein du système d'information.Ce article a pour principal objectif de dresser un panoramacomplet et équilibré des technologies de portail d'informationd'entreprise et de gestion de la connaissance, tout en montrant enquoi celles-ci sont susceptibles de renforcer la productivité etd'accélérer l'innovation dans l'entreprise. Hummingbird espère ainsivous aider à identifier un grand nombre des technologies qui soustendent la gestion de la connaissance, tout en vous procurant un maximum d'éléments d'appréciation pour appuyer votre processusdécisionnel.
APA, Harvard, Vancouver, ISO, and other styles
6

RAKOTONDRANAIVO, Auguste, Sophie POTTIER, and Julien HUSSON. "Gestion informatisée des lits : état des lieux et analyse a priori des impacts multicritères." Revue Française de Gestion Industrielle 38, no. 1 (February 23, 2024): 57–69. http://dx.doi.org/10.53102/2024.38.01.1039.

Full text
Abstract:
Depuis 2013, les hôpitaux français ont été vivement encouragés à adopter des logiciels de gestion des lits pour fluidifier le parcours de soins mais cela heurte à des difficultés. Cet article présente une étude de cas menée au sein du Centre Hospitalier Régional Universitaire (CHRU) de Nancy. Nous avons réalisé une analyse rétrospective des données relatives aux mouvements des patients et une analyse prospective du processus de gestion des lits. Ces analyses ont permis de comprendre le fonctionnement actuel et d’obtenir des données quantitatives permettant d’objectiver les avantages apportés par l'informatisation. Une démarche originale d'évaluation a priori des impacts multicritères et impliquant différents acteurs a été proposée. Les résultats obtenus ont permis de recueillir les perceptions positives et négatives des parties prenantes avant même la mise en place du logiciel, contribuant ainsi à son acceptabilité.
APA, Harvard, Vancouver, ISO, and other styles
7

Charleroy, Arnaud, Xavier Delpuech, and Pascal Neveu. "Vitioeno, un centre de ressources numériques pour la production de données scientifiques FAIR." BIO Web of Conferences 68 (2023): 01030. http://dx.doi.org/10.1051/bioconf/20236801030.

Full text
Abstract:
Résumé INRAE et l’IFV ont mis en place un centre de ressources numériques ouvertes et librement accessibles, avec l’objectif d’aider et de faciliter la structuration et la qualification des données selon les principes FAIR. Ce centre de ressource pour l’aide à la gestion des données « Vitioeno » est disponible en ligne, en français et en anglais, à l’adresse https://vitioeno.mistea.inrae.fr/resource/app/. Il recense et donne un accès ouvert à différents types de ressources numériques existantes, en particulier des référentiels (matériel végétal et variables expérimentales), des documents téléchargeables de type protocoles, et des applications ou liens utiles.
APA, Harvard, Vancouver, ISO, and other styles
8

Tardif, Bernard, Gildo Lavoie, and Guy Jolicoeur. "Le Centre de données sur le patrimoine naturel du Québec et la documentation des plantes vasculaires en situation précaire." Le Naturaliste canadien 140, no. 1 (November 27, 2015): 5–11. http://dx.doi.org/10.7202/1034093ar.

Full text
Abstract:
Divers acteurs de la scène biologique québécoise, professionnels ou bénévoles, effectuent des observations sur les espèces en situation précaire au Québec. Ces informations sont exploitées par le Centre de données sur le patrimoine naturel du Québec (CDPNQ). Cette agrégation des connaissances disponibles sur la répartition des espèces permet de soutenir adéquatement les actions de conservation, d’aménagement et de gestion du territoire, pour lesquelles le CDPNQ est consulté au quotidien. Par cet article, nous souhaitons témoigner de l’importance de cette collaboration implicite et rendre crédit aux contributeurs de données sur les plantes vasculaires, dont un grand nombre agit à titre de bénévoles.
APA, Harvard, Vancouver, ISO, and other styles
9

Endenich, Christoph, and Sebastian D. Becker. "La mesure de la performance dans les start-ups : Quels enseignements pour le contrôle de gestion en entreprise ?" Comptabilité Contrôle Audit Tome 30, no. 4 (November 21, 2024): 100–134. https://doi.org/10.3917/cca.304.0101.

Full text
Abstract:
Cet article présente une analyse empirique des systèmes de mesure de performance dans le domaine de l’entrepreneuriat. À partir d’entretiens, d’observations et d’analyses documentaires, nous constatons que, dans un contexte d’incertitude élevée, de ressources restreintes et d’abondance de données, les start-ups procèdent à une forte hiérarchisation de leurs priorités. Plus précisément, elles ont recours à un très petit nombre d’indicateurs de haut niveau axés sur les résultats (centrés sur le client), communément appelés North Star Metrics dans la littérature spécialisée. Dans ce cadre, nous élaborons le concept de priorisation radicale, qui consiste pour une start-up à privilégier délibérément certaines données de mesure de la performance au détriment d’autres données. De plus, notre réflexion théorique attribue le recours répandu aux North Star Metrics dans la pratique entrepreneuriale à leur caractère performatif (Revellino et Mouritsen, 2015) et à leur rôle d’objet-frontière (Star et Griesemer, 1989). Nos résultats soulèvent des implications pratiques pour les entreprises établies qui peuvent s’inspirer des pratiques entrepreneuriales afin d’améliorer leurs propres systèmes de mesure de performance.
APA, Harvard, Vancouver, ISO, and other styles
10

Nowatzki, J., B. Moller, and A. Demers. "Projection du taux d’incidence du cancer et du nombre de nouveaux cas de cancer au Manitoba pour la période 2006-2025." Maladies chroniques au Canada 31, no. 2 (March 2011): 82–89. http://dx.doi.org/10.24095/hpcdp.31.2.04f.

Full text
Abstract:
Introduction Projeter le fardeau du cancer est important pour l’évaluation des stratégies de prévention et la gestion prévisionnelle aux centres d’oncologie. Méthodologie Nous avons projeté le taux d’incidence du cancer et le nombre de cas de cancer pour la population du Manitoba à l’aide de projections démographiques provenant du Bureau des statistiques du Manitoba pour la période 2006-2025 et de données sur l’incidence du cancer issues du Registre du cancer du Manitoba pour la période 1976-2005. Les données ont été analysées au moyen d’une version modifiée du modèle âge-période-cohorte élaborée et évaluée dans les pays nordiques. Résultats Selon les projections, l’incidence globale du cancer au Manitoba ne devrait pas varier considérablement entre 2006 et 2025. L’incidence du cancer du poumon normalisée selon l’âge devrait diminuer, en particulier chez les hommes, ce qui met en évidence l’importance de la prévention en matière de tabagisme. Le nombre total de nouveaux cas de cancer par année devrait augmenter de 36 % pendant la période visée par les projections, une augmentation attribuable principalement aux changements démographiques. Conclusion La planification des ressources et des infrastructures devra tenir compte de l’augmentation prévue des cas de cancer, en lien avec l’accroissement de la population du Manitoba.
APA, Harvard, Vancouver, ISO, and other styles
More sources

Dissertations / Theses on the topic "Gestion des centres de données"

1

Ostapenco, Vladimir. "Modélisation, évaluation et orchestration des leviers hétérogènes pour la gestion des centres de données cloud à grande échelle." Electronic Thesis or Diss., Lyon, École normale supérieure, 2024. http://www.theses.fr/2024ENSL0096.

Full text
Abstract:
Le secteur des Technologies de l’Information et de la Communication (TIC) est en pleine croissance en raison de l'augmentation du nombre d’utilisateurs d’Internet et de la démocratisation des services numériques, entraînant une empreinte carbone non négligeable et toujours croissante. La part des émissions de gaz à effet de serre (GES) liées aux TIC est estimée entre 1,8% et 3,9% des émissions mondiales en 2020, avec un risque de presque doubler et d’atteindre plus de 7% d'ici à 2025. Les datacenters sont au cœur de cette croissance, estimés d'être responsables d'une part importante des émissions de GES du secteur des TIC (allant de 17% à 45% en 2020) et à consommer environ 1% de l'électricité mondiale en 2018.De nombreux leviers existent et peuvent aider les fournisseurs de cloud et les gestionnaires de datacenters à réduire certains de ces impacts. Ces leviers peuvent opérer sur de multiples facettes telles que l’extinction de ressources inutilisées, le ralentissement de ressources pour s’adapter aux besoins réels des applications et services, l’optimisation ou la consolidation des services pour réduire le nombre de ressources physiques mobilisées. Ces leviers peuvent être très hétérogènes et impliquer du matériel informatique, des couches logicielles ou des contraintes plus logistiques à l’échelle des datacenters. Activer, désactiver et orchestrer ces leviers à grande échelle est un réel enjeu permettant des gains potentiels en termes de réduction de la consommation énergétique et des émissions de dioxyde de carbone.Dans cette thèse, nous abordons la modélisation, évaluation et gestion de leviers hétérogènes dans le contexte d'un datacenter cloud à grande échelle en proposant pour la première fois la combinaison de leviers hétérogènes : à la fois technologiques (allumage/extinction de ressources, migration, ralentissement) et logistiques (installation de nouvelles machines, décommissionnement, changement fonctionnels ou géographiques de ressources IT).Dans un premier temps, nous proposons une modélisation des leviers hétérogènes couvrant les impacts, les coûts et les combinaisons des leviers, les concepts de Gantt Chart environnemental contenant des leviers appliqués à l'infrastructure du fournisseur de cloud et d'un environnement logiciel de gestion des leviers qui vise à améliorer les performances énergétiques et environnementales globales de l'ensemble de l'infrastructure d'un fournisseur de cloud. Ensuite, nous abordons le suivi et la collecte de métriques, incluant des données énergétiques et environnementales. Nous discutons de la mesure de la puissance et de l’énergie et effectuons une comparaison expérimentale des wattmètres logiciels. Par la suite, nous étudions un levier technologique unique en effectuant une analyse approfondie du levier Intel RAPL à des fins de plafonnement de la puissance sur un ensemble de nœuds hétérogènes pour une variété de charges de travail gourmandes en CPU et en mémoire. Finalement, nous validons la modélisation des leviers hétérogènes proposée à grande échelle en explorant trois scénarios distincts qui montrent la pertinence de l’approche proposée en termes de gestion des ressources et de réduction des impacts potentiels
The Information and Communication Technology (ICT) sector is constantly growing due to the increasing number of Internet users and the democratization of digital services, leading to a significant and ever-increasing carbon footprint. The share of greenhouse gas (GHG) emissions related to ICT is estimated to be between 1.8% and 3.9% of global GHG emissions in 2020, with a risk of almost doubling and reaching more than 7% by 2025. Data centers are at the center of this growth, estimated to be responsible for a significant portion of the ICT industry's global GHG emissions (ranging from 17% to 45% in 2020) and to consume approximately 1% of global electricity in 2018.Numerous leverages exist and can help cloud providers and data center managers to reduce some of these impacts. These leverages can operate on multiple facets such as turning off unused resources, slowing down resources to adapt to the real needs of applications and services, optimizing or consolidating services to reduce the number of physical resources mobilized. These leverages can be very heterogeneous and involve hardware, software layers or more logistical constraints at the data center scale. Activating, deactivating and orchestrating these heterogeneous leverages on a large scale can be a challenging task, allowing for potential gains in terms of reducing energy consumption and GHG emissions.In this thesis, we address the modeling, evaluation and orchestration of heterogeneous leverages in the context of a large-scale cloud data center by proposing for the first time the combination of heterogeneous leverages: both technological (turning on/off resources, migration, slowdown) and logistical (installation of new machines, decommissioning, functional or geographical changes of IT resources).First, we propose a novel heterogeneous leverage modeling approach covering leverages impacts, costs and combinations, the concepts of an environmental Gantt Chart containing leverages applied to the cloud provider's infrastructure and of a leverage management framework that aims to improve the overall energy and environmental performance of a cloud provider's entire infrastructure. Then, we focus on metric monitoring and collection, including energy and environmental data. We discuss power and energy measurement and conduct an experimental comparison of software-based power meters. Next, we study of a single technological leverage by conducting a thorough analysis of Intel RAPL leverage for power capping purposes on a set of heterogeneous nodes for a variety of CPU- and memory-intensive workloads. Finally, we validate the proposed heterogeneous leverage modeling approach on a large scale by exploring three distinct scenarios that show the pertinence of the proposed approach in terms of resource management and potential impacts reduction
APA, Harvard, Vancouver, ISO, and other styles
2

Dellal, Ibrahim. "Gestion et exploitation de larges bases de connaissances en présence de données incomplètes et incertaines." Thesis, Chasseneuil-du-Poitou, Ecole nationale supérieure de mécanique et d'aérotechnique, 2019. http://www.theses.fr/2019ESMA0016/document.

Full text
Abstract:
Avec l’émergence et la prolifération des applications du Web sémantique, de nombreuses et récentes larges bases de connaissances (BC) sont disponibles sur le Web. Ces BC contiennent des entités (nommées) et des faits sur ces entités. Elles contiennent également les classes sémantiques de ces entités et leurs liens mutuels.De plus, plusieurs BC peuvent être interconnectées au niveau entités, formant ainsi le noyau du Web des données liées (ou ouvertes). Une caractérisation essentielle de ces BC est qu’elles contiennent des millions à des billions de triplets RDF incertains. Les causes de cette incertitude sont diverses et multiples. Elle peut résulter de l’intégration de sources de données de différents niveaux de fiabilité ou elle peut être causée par des considérations de préservation de la confidentialité. Aussi, elle peut être due à des facteurs li´es au manque d’informations, à la limitation des équipements de mesures ou à l’évolution d’informations. L’objectif de ce travail de thèse est d’améliorer l’ergonomie et la convivialité des systèmes modernes visant à exploiter des BC entachées d’incertitude. En particulier, ce travail propose des techniques coopératives et intelligentes aidant l’utilisateur dans ses prises de décisions quand ses recherches retournent des résultats insatisfaisants en termes de quantité ou de fiabilité.Dans un premier temps, nous nous sommes intéressés au problème des requêtes RDF retournant un ensemble vide de réponses. Ce type de réponse est frustrant et ne sert pas les attentes de l’utilisateur. L’approche proposée pour le traitement de ce problème est guidée par la requête initiale et offre un double avantage :(i) elle permet de fournir une explication sur l’échec de la requête en identifiant les MFS (Minimal Failing Sub-queries) et, (ii) elle permet de calculer des requêtes alternatives appelées XSS (maXimal Succeeding Subqueries),sémantiquement proches de la requête initiale et dont les réponses sont non-vides. Par ailleurs, d’un point de vue utilisateur, cette solution présente un niveau élevé de flexibilité dans le sens o`u plusieurs degrés d‘incertitude peuvent être simultanément considérés. Dans une seconde contribution, nous avons abord´e l’étude du problème dual au problème cité ci-dessus,c’est-`a-dire le cas des requêtes retournant un nombre trop élevé de réponses dans le contexte des données RDF.La solution préconisée vise `a réduire cet ensemble de réponses pour permettre à l’utilisateur de les examiner.Des contreparties des MFS et des XSS ont été établies, ce qui a permis d’identifier, d’une part, les causes du problème et, d’autre part, des requêtes alternatives dont les résultats peuvent être directement et facilement exploitables à des fins de décision.L’ensemble de nos propositions ont été validées par une série d’expérimentations portant sur différentes larges bases de connaissances en présence d’incertitude (WatDiv et LUBM). Nous avons aussi utilisé plusieurs Triplestores pour mener nos tests
In the era of digitilization, and with the emergence of several semantic Web applications, many new knowledge bases (KBs) are available on the Web. These KBs contain (named) entities and facts about these entities. They also contain the semantic classes of these entities and their mutual links. In addition, multiple KBs could be interconnected by their entities, forming the core of the linked data web. A distinctive feature of these KBs is that they contain millions to trillions of unreliable RDF triples. This uncertainty has multiple causes. It can result from the integration of data sources with various levels of intrinsic reliability or it can be caused by some considerations to preserve confidentiality. Furthermore, it may be due to factors related to the lack of information, the limits of measuring equipment or the evolution of information. The goal of this thesis is to improve the usability of modern systems aiming at exploiting uncertain KBs. In particular, this work proposes cooperative and intelligent techniques that could help the user in his decision-making when his query returns unsatisfactory results in terms of quantity or reliability. First, we address the problem of failing RDF queries (i.e., queries that result in an empty set of responses).This type of response is frustrating and does not meet the user’s expectations. The approach proposed to handle this problem is query-driven and offers a two fold advantage: (i) it provides the user with a rich explanation of the failure of his query by identifying the MFS (Minimal Failing Sub-queries) and (ii) it allows the computation of alternative queries called XSS (maXimal Succeeding Sub-queries), semantically close to the initial query, with non-empty answers. Moreover, from a user’s point of view, this solution offers a high level of flexibility given that several degrees of uncertainty can be simultaneously considered.In the second contribution, we study the dual problem to the above problem (i.e., queries whose execution results in a very large set of responses). Our solution aims at reducing this set of responses to enable their analysis by the user. Counterparts of MFS and XSS have been defined. They allow the identification, on the one hand, of the causes of the problem and, on the other hand, of alternative queries whose results are of reasonable size and therefore can be directly and easily used in the decision making process.All our propositions have been validated with a set of experiments on different uncertain and large-scale knowledge bases (WatDiv and LUBM). We have also used several Triplestores to conduct our tests
APA, Harvard, Vancouver, ISO, and other styles
3

Bessenay, Carole. "La gestion des données environnementales dans un espace naturel sensible : le système d'information géographique des Hautes-Chaumes foréziennes (Massif central)." Saint-Etienne, 1995. http://www.theses.fr/1995STET2024.

Full text
Abstract:
L'objet de cette recherche est de présenter et d'appliquer sur un territoire choisi les concepts et les potentialités offertes par les systèmes d'information géographique pour aider à comprendre les processus de fonctionnement et de transformation des milieux naturels. Le système d'information géographique des Hautes-Chaumes foréziennes souligne l'intérêt de l'informatisation des méthodes dites de "planification écologique" destinées à intégrer l'environnement au sein des pratiques d'aménagement par l'analyse des aptitudes ou des sensibilités spécifiques d'un milieu. Cette étude repose sur l'inventaire et la représentation cartographique des principales composantes naturelles et anthropiques caractérisant ce domaine : topographie, végétation, humidité, pratiques pastorales. . . La sélection d'un certain nombre de critères autorise ensuite la réalisation d'un diagnostic, fondé sur une approche pluridisciplinaire, qui souligne l'importante fragilité des Hautes-Chaumes. La confrontation de ce diagnostic avec un modèle d'évaluation de la fréquentation conduit alors à proposer un zonage des secteurs les plus vulnérables, à la fois fragiles et soumis à de fortes pressions. Cette analyse devrait ainsi inciter les responsables politiques à concevoir des mesures de gestion différentes selon les enjeux qui pèsent sur chacun des secteurs afin de concilier l'ensemble des usages anthropiques tout en respectant la fragilité de ce milieu naturel
The object of this research is to present and to apply to a specific territory the geographical information systems' concepts and potentialities that can help understand the functioning and evolution processes of natural spaces. The GIS of the "Hautes-Chaumes foreziennes" underlines the interest of a computerization of "ecological planning" methods whose aims are to integrate environment into management practices thanks to the analysis of the specific aptitudes or sensitivities of one space. This study is based on the inventory and the mapping ot the Hautes-Chaumes principal natural and human characteristics : topography, vegetation, humidity, pastoral activities. . . The selection of several criteria allows the elaboration of a pluridisciplinary diagnosis which underlines the important sensitivity of this area. This diagnosis is then compared with an evaluation model of anthropic frequenting in a way to define a zoning of the most vulnerable sectors, which are both sensitive and subject to important pressures. This analysis should urge politicians to conceive differentiated management measures related with the incentives at stake in each area in order to conciliate all anthropic activities while respecting the aptitudes of this natural space
APA, Harvard, Vancouver, ISO, and other styles
4

Ho, Anh Dung. "Contribution a l'étude de supports logiciels de base de données pour un système de diagnostic applique aux centrales électronucléaires." Paris 7, 1985. http://www.theses.fr/1985PA07F064.

Full text
Abstract:
Description d'une centrale à eau pressurisée. Système de surveillance et d'aide au diagnostic de défaut en ligne. Modélisation du fonctionnement et plan de contrôle du processus ; application à la fonction «inventaire en eau». Principes de structuration et du traitement de données.
APA, Harvard, Vancouver, ISO, and other styles
5

Alili, Hiba. "Intégration de données basée sur la qualité pour l'enrichissement des sources de données locales dans le Service Lake." Thesis, Paris Sciences et Lettres (ComUE), 2019. http://www.theses.fr/2019PSLED019.

Full text
Abstract:
De nos jours, d’énormes volumes de données sont créés en continu et les utilisateurs s’attendent à ce que ceux-ci soient collectés, stockés et traités quasiment en temps réel. Ainsi, les lacs de données sont devenus une solution attractive par rapport aux entrepôts de données classiques coûteux et fastidieux (nécessitant une démarche ETL), pour les entreprises qui souhaitent stocker leurs données. Malgré leurs volumes, les données stockées dans les lacs de données des entreprises sont souvent incomplètes voire non mises à jour vis-à-vis des besoins (requêtes) des utilisateurs.Les sources de données locales ont donc besoin d’être enrichies. Par ailleurs, la diversité et l’expansion du nombre de sources d’information disponibles sur le web a rendu possible l’extraction des données en temps réel. Ainsi, afin de permettre d’accéder et de récupérer l’information de manière simple et interopérable, les sources de données sont de plus en plus intégrées dans les services Web. Il s’agit plus précisément des services de données, y compris les services DaaS du Cloud Computing. L’enrichissement manuel des sources locales implique plusieurs tâches fastidieuses telles que l’identification des services pertinents, l’extraction et l’intégration de données hétérogènes, la définition des mappings service-source, etc. Dans un tel contexte, nous proposons une nouvelle approche d’intégration de données centrée utilisateur. Le but principal est d’enrichir les sources de données locales avec des données extraites à partir du web via les services de données. Cela permettrait de satisfaire les requêtes des utilisateurs tout en respectant leurs préférences en terme de coût d’exécution et de temps de réponse et en garantissant la qualité des résultats obtenus
In the Big Data era, companies are moving away from traditional data-warehouse solutions whereby expensive and timeconsumingETL (Extract, Transform, Load) processes are used, towards data lakes in order to manage their increasinglygrowing data. Yet the stored knowledge in companies’ databases, even though in the constructed data lakes, can never becomplete and up-to-date, because of the continuous production of data. Local data sources often need to be augmentedand enriched with information coming from external data sources. Unfortunately, the data enrichment process is one of themanual labors undertaken by experts who enrich data by adding information based on their expertise or select relevantdata sources to complete missing information. Such work can be tedious, expensive and time-consuming, making itvery promising for automation. We present in this work an active user-centric data integration approach to automaticallyenrich local data sources, in which the missing information is leveraged on the fly from web sources using data services.Accordingly, our approach enables users to query for information about concepts that are not defined in the data sourceschema. In doing so, we take into consideration a set of user preferences such as the cost threshold and the responsetime necessary to compute the desired answers, while ensuring a good quality of the obtained results
APA, Harvard, Vancouver, ISO, and other styles
6

Petitdemange, Eva. "SAMUFLUX : une démarche outillée de diagnostic et d'amélioration à base de doubles numériques : application aux centres d'appels d'urgence de trois SAMU." Thesis, Ecole nationale des Mines d'Albi-Carmaux, 2020. http://www.theses.fr/2020EMAC0012.

Full text
Abstract:
L’engorgement des structures d’urgence médicale est une réalité à laquelle les SAMU (Service d’Aide Médicale Urgente) n’échappent pas (5 à 15% d’augmentation des appels par an). De récents événements comme la pandémie de Covid-19 montrent les limites du système actuel pour faire face aux situations de crise. Le renfort en moyens humains ne peut être la seule solution face à ce constat et il devient incontournable de construire de nouveaux modèles organisationnels tout en visant une qualité de service permettant de répondre à 99% des appels entrants en moins de 60 secondes. Toutefois, ces modèles doivent prendre en compte la grande hétérogénéité des SAMU et de leur fonctionnement. A la lumière de ces constats, le travail de recherche présenté dans ce manuscrit a pour but d'évaluer l'efficacité organisationnelle et la résilience des SAMU dans la prise en charge des flux d'appels téléphoniques d'urgence pour faire face au quotidien et aux situations de crise. Cette évaluation nous permet de proposer et de tester de nouveaux schémas organisationnels afin de faire des préconisations adaptées aux particularités des centres d'appels d'urgence. Dans une première partie, nous proposons une méthodologie outillée pour le diagnostic et l'amélioration des centres d'appels d'urgence. Elle se décompose en deux grands volets : l'étude des données issues des centres d'appel d'urgence puis la conception et l'utilisation d'un double numérique. Pour chaque étape de cette méthodologie, nous proposons un outil associé. Dans une seconde partie, nous appliquons le premier volet de la méthodologie aux données de nos SAMU partenaires. Il s'agit d'être capable d'extraire de l'information et des connaissances des données de téléphonies ainsi que des processus métiers pour le traitement des appels d'urgence. La connaissance ainsi extraite permet de concevoir un double numérique qui soit proche du comportement réel des SAMU. Enfin dans une troisième partie, nous utilisons la matière produite précédemment pour modéliser et paramétrer un double numérique déployé sur un moteur de simulation à événements discret. Il nous permet de tester plusieurs scénarios en jouant sur différentes organisations de gestion de l'appel. Grâce à cela, nous faisons des préconisations sur les types d'organisations à adopter afin d'améliorer les performances des centres d'appel
The demand for emergency medical services has been significant and increasing over the last decade. In a constrained medico-economic context, the maintenance of operational capacities represents a strategic strake in front of the risk of congestion and insufficient accessibility for the population. Recent events such as the COVID-19 pandemic show the limits of the current system to face crisis situations. Reinforcement in human resources cannot be the only solution in front of this observation and it becomes unavoidable to build new organizational models while aiming at a quality of service allowing to answer 99% of the incoming calls in less than 60 seconds (90% in 15s and 99% in 30s MARCUS report and HAS recommendation October 2020). However, these models must take into account the great heterogeneity of EMS and their operation. In the light of these findings, the research work presented in this manuscript aims to evaluate the organizational effiectiveness and resilience of EMS in managing the flow of emergency telephone calls to deal with daily life and crisis situations. This evaluation allows us to propose and test new organizational schemes in order to make recommendations adpated to the particularities of emergency call centers. In a first part, we propose a methodology equipped for the diagnosis and improvement of emergency call centers. It can be broken down into two main parts: the study of data from emergency call centers, and then the design and use of a dual digital system. For each step of this methodology, we propose an associated tool. In a second part, we apply the first part of the methodology to our partner EMS data. The aim is to be able to extract information and knowledge from the telephony data as well as from the business processes for handling emergency calls. The knowledge thus extracted makes it possible to design a digital duplicate that is close to the real behavior of the EMS. Finally, in a third part, we use the material produced previously to model and parameterize a digital duplicate deployed on a discrete event simulation engine. It allows us to test several scenarios by playing on different call management organizations. Thanks to this, we make recommendations on the types of organizations to adopt in order to improve the performance of call centers
APA, Harvard, Vancouver, ISO, and other styles
7

Segalini, Andrea. "Alternatives à la migration de machines virtuelles pour l'optimisation des ressources dans les centres informatiques hautement consolidés." Thesis, Université Côte d'Azur, 2021. http://www.theses.fr/2021COAZ4085.

Full text
Abstract:
La virtualisation est une technologie de première importance dans les centres informatiques (data centers). Elle fournit deux mécanismes clés, les machines virtuelles et la migration, qui permettent de maximiser l’utilisation des ressources pour réduire les dépenses d’investissement. Dans cette thèse, nous avons identifié et étudié deux contextes où la migration traditionnelle ne parvient pas à fournir les outils optimaux pour utiliser au mieux les ressources disponibles dans un cluster : les machines virtuelles inactives et les mises à jour à grande échelle des hyperviseurs.Les machines virtuelles inactives verrouillent en permanence les ressources qui leur sont attribuées uniquement dans l’attente des (rares) demandes des utilisateurs. Ainsi, alors qu’elles sont la plupart du temps inactifs, elles ne peuvent pas être arrêtées, ce qui libérerait des ressources pour des services plus demandeurs. Pour résoudre ce problème, nous proposons SEaMLESS, une solution qui exploite une nouvelle forme de migration de VM vers un conteneur, en transformant les machines virtuelles Linux inactives en proxys sans ressources. SEaMLESS intercepte les nouvelles demandes des utilisateurs lorsque les machines virtuelles sont désactivées, reprenant de manière transparente leur exécution dès que de nouveaux signes d’activité sont détectés. De plus, nous proposons une technique facile à adopter pour désactiver les machines virtuelles basée sur une mise en swap de la mémoire de la machine virtuelle. Grâce à notre nouveau système de suspension en swap, nous sommes en mesure de libérer la majorité de la mémoire et du processeur occupés par les instances inactives, tout en offrant une reprise rapide du service.Dans la deuxième partie de la thèse, nous abordons le problème des évolutions à grande échelle des hyperviseurs. Les mises à niveau de l’hyperviseur nécessitent souvent un redémarrage de la machine, forçant les administrateurs du centre informatique à évacuer les hôtes, en déplaçant ailleurs les machines virtuelles pour protéger leur exécution. Cette évacuation est coûteuse, à la fois en termes de transferts réseau et de ressources supplémentaires nécessaires dans le centre informatique. Pour répondre à ce défi, nous proposons Hy-FiX et Multi-FiX, deux solutions de mise à niveau sur place qui ne consomment pas de ressources externes à l’hôte. Les deux solutions tirent parti d’une migration sans copie des machines virtuelles au sein de l’hôte, préservant leur état d’exécution tout au long de la mise à niveau de l’hyperviseur. Hy-FiX et Multi-FiX réalisent des mises à niveau évolutives, avec un impact limité sur les instances en cours d’exécution
Server virtualization is a technology of prime importance in contemporary data centers. Virtualization provides two key mechanisms, virtual instances and migration, that enable the maximization of the resource utilization to decrease the capital expenses in a data center. In this thesis, we identified and studied two contexts where traditional virtual instance migration falls short in providing the optimal tools to utilize at best the resource available in a cluster: idle virtual machines and largescale hypervisor upgrades.Idle virtual machines permanently lock the resources they are assigned only to await incoming user requests. Indeed, while they are most of the time idle, they cannot be shut down, which would release resources for more demanding services. To address this issue, we propose SEaMLESS, a solution that leverages a novel VM-to-container migration that transforms idle Linux virtual machines into resource-less proxies. SEaMLESS intercepts new user requests while virtual machines are disabled, transparently resuming their execution upon new signs of activity. Furthermore, we propose an easy-to-adopt technique to disable virtual machines based on the traditional hypervisor memory swapping. With our novel suspend-to-swap, we are able to release the majority of the memory and CPU seized by the idle instances, yet providing a fast resume.In the second part of the thesis, we tackle the problem of large-scale upgrades of the hypervisor software. Hypervisor upgrades often require a machine reboot, forcing data center administrators to evacuate the hosts, relocating elsewhere the virtual machines to protect their execution. As this evacuation is costly, both in terms of network transfers and spare resources needed in the data center, hypervisor upgrades hardly scale. We propose Hy-FiX and Multi-FiX, two in-place upgrade that do not consume resource external to the host. Both solutions leverage a zero-copy migration of virtual machines within the host, preserving their execution state across the hypervisor upgrade. Hy-FiX and Multi-FiX achieve scalable upgrades, with only limited impact on the running instances
APA, Harvard, Vancouver, ISO, and other styles
8

Jlassi, Aymen. "Optimisation de la gestion des ressources sur une plate-forme informatique du type Big Data basée sur le logiciel Hadoop." Thesis, Tours, 2017. http://www.theses.fr/2017TOUR4042.

Full text
Abstract:
L'entreprise "Cyres-group" cherche à améliorer le temps de réponse de ses grappes Hadoop et la manière dont les ressources sont exploitées dans son centre de données. Les idées sous-jacentes à la réduction du temps de réponse sont de faire en sorte que (i) les travaux soumis se terminent au plus tôt et que (ii) le temps d'attente de chaque utilisateur du système soit réduit. Nous identifions deux axes d'amélioration : 1. nous décidons d'intervenir pour optimiser l'ordonnancement des travaux sur une plateforme Hadoop. Nous considérons le problème d'ordonnancement d'un ensemble de travaux du type MapReduce sur une plateforme homogène. 2. Nous décidons d'évaluer et proposer des outils capables (i) de fournir plus de flexibilité lors de la gestion des ressources dans le centre de données et (ii) d'assurer l'intégration d'Hadoop dans des infrastructures Cloud avec le minimum de perte de performance. Dans une première étude, nous effectuons une revue de la littérature. À la fin de cette étape, nous remarquons que les modèles mathématiques proposés dans la littérature pour le problème d'ordonnancement ne modélisent pas toutes les caractéristiques d'une plateforme Hadoop. Nous proposons à ce niveau un modèle plus réaliste qui prend en compte les aspects les plus importants tels que la gestion des ressources, la précédence entre les travaux, la gestion du transfert des données et la gestion du réseau. Nous considérons une première modélisation simpliste et nous considérons la minimisation de la date de fin du dernier travail (Cmax) comme critère à optimiser. Nous calculons une borne inférieure à l'aide de la résolution du modèle mathématique avec le solveur CPLEX. Nous proposons une heuristique (LocFirst) et nous l'évaluons. Ensuite, nous faisons évoluer notre modèle et nous considérons, comme fonction objective, la somme des deux critères identifiés depuis la première étape : la minimisation de la somme pondérée des dates de fin des travaux ( ∑ wjCj) et la minimisation du (Cmax). Nous cherchons à minimiser la moyenne pondérée des deux critères, nous calculons une borne inférieure et nous proposons deux heuristiques de résolution
"Cyres-Group" is working to improve the response time of his clusters Hadoop and optimize how the resources are exploited in its data center. That is, the goals are to finish work as soon as possible and reduce the latency of each user of the system. Firstly, we decide to work on the scheduling problem in the Hadoop system. We consider the problem as the problem of scheduling a set of jobs on a homogeneous platform. Secondly, we decide to propose tools, which are able to provide more flexibility during the resources management in the data center and ensure the integration of Hadoop in Cloud infrastructures without unacceptable loss of performance. Next, the second level focuses on the review of literature. We conclude that, existing works use simple mathematical models that do not reflect the real problem. They ignore the main characteristics of Hadoop software. Hence, we propose a new model ; we take into account the most important aspects like resources management and the relations of precedence among tasks and the data management and transfer. Thus, we model the problem. We begin with a simplistic model and we consider the minimisation of the Cmax as the objective function. We solve the model with mathematical solver CPLEX and we compute a lower bound. We propose the heuristic "LocFirst" that aims to minimize the Cmax. In the third level, we consider a more realistic modelling of the scheduling problem. We aim to minimize the weighted sum of the following objectives : the weighted flow time ( ∑ wjCj) and the makespan (Cmax). We compute a lower bound and we propose two heuristics to resolve the problem
APA, Harvard, Vancouver, ISO, and other styles
9

Medina, Marquez Alejandro. "L'analyse des données évolutives." Paris 9, 1985. https://portail.bu.dauphine.fr/fileviewer/index.php?doc=1985PA090022.

Full text
APA, Harvard, Vancouver, ISO, and other styles
10

Dumont, Frédéric. "Analyses et préconisations pour les centres de données virtualisés." Thesis, Nantes, Ecole des Mines, 2016. http://www.theses.fr/2016EMNA0249/document.

Full text
Abstract:
Cette thèse présente deux contributions. La première contribution consiste en l’étude des métriques de performance permettant de superviser l’activité des serveurs physiques et des machines virtuelles s’exécutant sur les hyperviseurs VMware et KVM. Cette étude met en avant les compteurs clés et propose des analyses avancées dans l’objectif de détecter ou prévenir d’anomalies liées aux quatreres sources principales d’un centre de données : le processeur, la mémoire, le disque et le réseau. La seconde contribution porte sur un outil pour la détection de machines virtuelles à comportements pré-déterminés et/ou atypiques. La détection de ces machines virtuelles à plusieurs objectifs. Le premier, permettre d’optimiser l’utilisation des ressources matérielles en libérant des ressources par la suppression de machines virtuelles inutiles ou en les redimensionnant. Le second, optimiser le fonctionnement de l’infrastructure en détectant les machines sous-dimensionnées, surchargées ou ayant une activité différente des autres machines virtuelles de l’infrastructure
This thesis presents two contributions. The first contribution is the study of key performance indicators to monitor physical and virtual machines activity running on VMware and KVM hypervisors. This study highlights performance metrics and provides advanced analysis with the aim to prevent or detect abnormalities related to the four main resources of a datacenter: CPU, memory, disk and network. Thesecond contribution relates to a tool for virtual machines with pre-determined and / or atypical behaviors detection. The detection of these virtual machines has several objectives. First, optimize the use of hardware resources by freeing up resources by removing unnecessary virtual machines or by resizing those oversized. Second, optimize infrastructure performance by detecting undersized or overworked virtual machines and those having an atypical activity
APA, Harvard, Vancouver, ISO, and other styles
More sources

Books on the topic "Gestion des centres de données"

1

Koehl, Jean-Luc. Les centres commerciaux. Paris: Presses universitaires de France, 1990.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
2

Korth, Henry F. Systèmes de gestion des bases de données. Auckland: McGraw-Hill, 1988.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
3

Abraham, Silberschatz, ed. Systèmes de gestion des bases de données. Paris: McGraw-Hill, 1991.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
4

Pichat, Étienne. Ingénierie des données: Systèmes d'information, modèles et bases de données. Paris: Masson, 1990.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
5

Bélanger, Suzanne. Guide de gestion pour les centres des femmes. Montréal, Qué: Éditions Communiqu'elles, 1985.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
6

Zauhar, John. La gestion de l'entretien préventif des installations de loisirs. Ottawa: Collège Algonquin, 1988.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
7

Pasleau, Suzy. LEGIA II: La gestion automatique des données en histoire. Liège: Universite. Faculte de philosophie et lettres, 1987.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
8

Régnier-Pécastaing, Franck. MDM: Enjeux et méthodes de la gestion des données. Paris: Logica, 2008.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
9

Brien, Robert. Comptabilité 2: Analyse et traitement des données du cycle comptable. 5th ed. Montréal: Gaëtan Morin, 2005.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
10

Bouzeghoub, Mokrane. Systèmes de bases de données des techniques d'implantation à la conception de schémas: Thèmes et corrigés. Paris: Eyrolles, 1990.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
More sources

Book chapters on the topic "Gestion des centres de données"

1

Chantinne, Frédéric. "Le château de Chimay aux XVe-XVIe siècles: premier bilan d’une confrontation entre données archéologiques, iconographiques et textuelles." In Lieu de pouvoir, lieu de gestion, 61–73. Turnhout: Brepols Publishers, 2011. http://dx.doi.org/10.1484/m.stmh-eb.1.100039.

Full text
APA, Harvard, Vancouver, ISO, and other styles
2

BENBLIDIA, Mohammed Anis, Leila MERGHEM-BOULAHIA, Moez ESSEGHIR, and Bouziane BRIK. "Gestion intelligente des ressources dans un système Smart Grid-Cloud pour une meilleure efficacité énergétique." In Gestion et contrôle intelligents des réseaux, 181–204. ISTE Group, 2020. http://dx.doi.org/10.51926/iste.9008.ch7.

Full text
Abstract:
Le Smart Grid, qui est le futur réseau électrique intelligent, permet l’échange bidirectionnel des données et de l’énergie entre le producteur et le consommateur. Grâce à cet échange de données, le gestionnaire du Smart Grid possède plus d’informations sur ses clients et sera capable de leur proposer des services plus personnalisés et répondant davantage à leurs besoins. Dans ce chapitre, nous examinons l’efficacité énergétique des infrastructures de l’information et de la communication dans un système Smart Grid-Cloud. Nous nous intéressons plus particulièrement aux réseaux de communication et aux data centers du Cloud. Nous nous sommes focalisés sur ces derniers en raison de leur grande consommation en énergie qui les positionne comme des éléments importants dans le réseau.
APA, Harvard, Vancouver, ISO, and other styles
3

Myers, Marie J. "Viser une production optimale." In L'enseignement de l'oral en classe de langue, 15–28. Editions des archives contemporaines, 2020. http://dx.doi.org/10.17184/eac.3491.

Full text
Abstract:
Pour optimiser la production orale il faut à la fois viser une augmentation du temps de prise de parole et créer des tâches de plus en plus exigeantes qui soient également motivantes pour engendrer un maximum de participation. Dans un premier temps je présente l’amélioration de la production orale dans le modèle de centres d’activités. La démarche est utilisée pour motiver et faire travailler de manière intensive en petits groupes, dans la salle de cours même. Il s’agit d’une gestion de petits groupes passant d’un centre à un autre tous les quarts d’heure environ dans le but de compléter les tâches proposées au centre en question. Il y a sans doute toute une complexité inhérente à ce modèle, mais une fois que la préparation adéquate est faite et que la première mise en route est complétée, les avantages de cette démarche sont nombreux. On stimule l’oral en responsabilisant les apprenants, en prévoyant des tâches exigeant la participation de tous les membres du groupe, en amenuisant le besoin de gestion de classe et en permettant le développement individuel et en interaction des habiletés langagières, avec une centration sur l’oral. L’objectif est de développer les capacités d’usagers autonomes de la langue après avoir fourni un encadrement initial avec un modèle. Puis il faut donner les directives aptes à assurer le bon fonctionnement de chaque centre sans le besoin de recours à l’enseignante. Des directives précises sont données avec des exemples à l’appui. Dans un deuxième temps je décris comment une activation physique allant de pair avec un travail de production orale est à même d’ajouter un aspect stimulant supplémentaire.
APA, Harvard, Vancouver, ISO, and other styles
4

"GESTION DES DONNÉES." In Communautés d’apprentissage professionnelles, 221–46. Les Presses de l’Université de Laval, 2019. http://dx.doi.org/10.1515/9782763745640-008.

Full text
APA, Harvard, Vancouver, ISO, and other styles
5

Moret, Alain, and Michèle Mazeau. "Gestion des « données numériques »." In Le Syndrome Dys-Exécutif Chez L'enfant et L'adolescent, 101–16. Elsevier, 2019. http://dx.doi.org/10.1016/b978-2-294-76280-2.00009-0.

Full text
APA, Harvard, Vancouver, ISO, and other styles
6

"5. Centres de gestion lointains." In Atelier de recherche sur les textes médiévaux, 93–99. Turnhout: Brepols Publishers, 1996. http://dx.doi.org/10.1484/m.artem-eb.4.00224.

Full text
APA, Harvard, Vancouver, ISO, and other styles
7

"Liste des abbréviations." In Additive manufacturing in orthognathic surgery: A case study. Université Paris Cité, 2024. http://dx.doi.org/10.53480/imp3d.221019.

Full text
Abstract:
ABS : acrylonitrile butadiènene styrène AECS : Australian Research Council Centre of Excellence for Electromaterials Science AMM : autorisation de mise sur le marché ANSM : Agence nationale de sécurité du médicament AP-HP : Assistance Publique - Hôpitaux de Paris APR : analyse préliminaire des risques ATM : articulation temporo-mandibulaire BAOMS : British Association of Oral Maxillofacial Surgeons CAD / CAM : Computer Aided Design / Computer Aided Manufacturing CAO : conception assistée par ordinateur CBCT : Cone Beam Computed Tomography CE : conformité européenne CHU : centre hospitalier universitaire CMF : chirurgie maxillo-faciale CNIL : Commission nationale de l’informatique et des libertés COV : composés organiques volatiles DM : dispositif médical DMLS : Direct Metal Laser Sintering EUDAMED : European Database on Medical Devices FDA : Food and Drug Administration FDM : Fused Deposition Modelling GCDM : Groupe de coordination en matière de dispositifs médicaux GHS : groupe homogène de séjour HAS : Haute Autorité de santé HEPA : High-Efficiency Particulate Air (filtre à air à particule à haute efficacité) HT : hors taxes IMDRF : International Medical Device Regulators Forum IUD : identification unique des dispositifs LSST : Loi de sécurité et de santé au travail mm : millimètre ml : millilitre MRR : mesures de réduction du risque NASA : National Aeronautics and Space Administration NHS : National Health Service NIOSH : National Institute for Occupational Safety and Health PACS : Picture Archiving and Communication System PAM : pression artérielle moyenne PEEK : polyéther-éther-cétone PLA : acide polylactique PSUR : Periodic Safety Update Report PVA : alcool polyvinylique RGPD : règlement européen sur la protection des données personnelles SAOS : syndrome d’apnées obstructives du sommeil SCAC : suivi clinique après commercialisation SDL : Selective Deposition Laminated SLA : stéréolithographie SLM : Selective Laser Melting SLS : Selective Laser Sintering SMQ : système de management de la qualité STL : Standard Tessellation Language T2A : tarification à l’activité TTC : toutes taxes comprises UCS : unité centrale de stérilisation UE : Union européenne UGRI : unité de gestion du risque infectieux USD : dollar américain UV : ultra violet USP : United States Pharmacopoeia VMS : Virtual Model Surgery
APA, Harvard, Vancouver, ISO, and other styles
8

"La Gestion des Données de Traduction." In Initiation à la traductique, 133–55. Les Presses de l’Université de Montréal, 2023. http://dx.doi.org/10.1515/9782760647664-010.

Full text
APA, Harvard, Vancouver, ISO, and other styles
9

Richert, Fabien. "La gestion d’un capital de données." In Les pratiques transformatrices des espaces socionumériques, 35–55. Presses de l'Université du Québec, 2017. http://dx.doi.org/10.1515/9782760547339-004.

Full text
APA, Harvard, Vancouver, ISO, and other styles
10

"Les procédures de gestion de données." In Les statistiques en images, 78. EDP Sciences, 2020. http://dx.doi.org/10.1051/978-2-7598-2085-6-049.

Full text
APA, Harvard, Vancouver, ISO, and other styles

Conference papers on the topic "Gestion des centres de données"

1

Ferrer, L., C. Curt, A. Arnaud, and J.-M. Tacnet. "Gestion du risque torrentiel : quelles données pour quels acteurs ?" In Congrès Lambda Mu 19 de Maîtrise des Risques et Sûreté de Fonctionnement, Dijon, 21-23 Octobre 2014. IMdR, 2015. http://dx.doi.org/10.4267/2042/56110.

Full text
APA, Harvard, Vancouver, ISO, and other styles
2

Roussel, Nicolas, Jean-Daniel Fekete, and Matthieu Langet. "Vers l'utilisation de la mémoire épisodique pour la gestion de données familières." In the 17th conference. New York, New York, USA: ACM Press, 2005. http://dx.doi.org/10.1145/1148550.1148588.

Full text
APA, Harvard, Vancouver, ISO, and other styles
3

Joliveau, Thierry. "Voir le monde comme il paraît ou le rôle des visualisations réalistes dans la gestion territoriale." In Paysages & valeurs : de la représentation à la simulation. Limoges: Université de Limoges, 2008. http://dx.doi.org/10.25965/as.3399.

Full text
Abstract:
Communes, conseils généraux, régions ou services de l'Etat s’offrent de plus en plus couramment des maquettes numériques, souvent accessibles par Internet, pour promouvoir leur territoire ou pour présenter aux habitants concernés l’état futur d’un projet d’urbanisme ou d'infrastructure. Les rendus de ces techniques de représentations numériques tridimensionnelless ont de plus en plus réalistes, interactifs, accessibles à distance sur le Web le texte et directement connectés aux bases de données géographiques disponibles. Certains utilisateurs pensent que ces techniques vont devenir les supports privilégiés pour une exploration et une réflexion partagées des questions de gestion territoriale. Nombreux sont les chercheurs en sciences sociales qui y voient plutôt des vecteurs d'une confusion généralisée entre la représentation et le représenté, le virtuel et le réel. Il est difficile de trancher, faute de données empiriques correctement collectées pour évaluer l’impact de ces visualisations sur les procédures et les pratiques de ceux qui les produisent comme de ceux qui les utilisent. Mais il est utile d’examiner de manière critique un certain nombre d’a priori théoriques sur ces questions.
APA, Harvard, Vancouver, ISO, and other styles
4

Garcia, Catherine, and Cyril Vanroye. "Les données marines au service de la gestion des risques littoraux : les réseaux de mesures du littoral Languedoc- Roussillon." In Journées Nationales Génie Côtier - Génie Civil. Editions Paralia, 2008. http://dx.doi.org/10.5150/jngcgc.2008.051-g.

Full text
APA, Harvard, Vancouver, ISO, and other styles
5

Fricain, J. C. "Mucites : une prise en charge basée sur la preuve." In 66ème Congrès de la SFCO. Les Ulis, France: EDP Sciences, 2020. http://dx.doi.org/10.1051/sfco/20206601008.

Full text
Abstract:
Les mucites sont des inflammations muqueuses secondaires à un traitement anticancéreux : radiothérapie, chimiothé- rapie, thérapie ciblée. Les mucites se développent sur l’ensemble du tractus digestif, de la bouche à lanus. La sévérité des mucites orales conditionne lalimentation et par conséquent le pronostic de la maladie. Le traitement des mucites orales reste très dépendant des centres doncologie et des habitudes locales. L’objectif de cette présentation est de faire un état des lieux des connaissances actuelles sur les mucites et de leurs traitements en mettant en exergue les données de médecine basée sur la preuve de ce domaine thérapeutique.
APA, Harvard, Vancouver, ISO, and other styles
6

CARNUS, François, Ann Sophie GABELLINI, and Olivier MERCIER. "Analyse des données AIS des secteurs PACA Est et Sanctuaire PELAGOS pour l’évaluation des problématiques liées au trafic maritime pour la gestion du milieu marin." In Journées Nationales Génie Côtier - Génie Civil. Editions Paralia, 2016. http://dx.doi.org/10.5150/jngcgc.2016.039.

Full text
APA, Harvard, Vancouver, ISO, and other styles
7

Dufau, J., H. Galley, and J. C. Mangin. "Intégration d'un modèle d'évaluation technique et économique de gros-cuvre de bâtiment dans un système de CAO utilisant un système de gestion de base de données réseau." In Colloque CAO et Robotique en Architecture et BTP (3rd International Symposium on Automation and Robotics in Construction). Paris: Hermes, 1986. http://dx.doi.org/10.22260/isarc1986/0019.

Full text
APA, Harvard, Vancouver, ISO, and other styles
8

SEYFRIED, Léo, Héloïse MICHAUD, Audrey PASQUET, Fabien LECKLER, Laurie BISCARA, and Christophe VRIGNAUD. "Acquisitions, traitements et analyses de données de courants, vagues et hauteur d’eau, pour l’amélioration de la gestion du risque de submersion marine : cas du PAPI Saint-Malo." In Journées Nationales Génie Côtier - Génie Civil. Editions Paralia, 2020. http://dx.doi.org/10.5150/jngcgc.2020.017.

Full text
APA, Harvard, Vancouver, ISO, and other styles

Reports on the topic "Gestion des centres de données"

1

Langlais, Pierre-Carl. Données de recherche ouvertes. Comité pour la science ouverte, 2024. https://doi.org/10.52949/70.

Full text
Abstract:
La non-ouverture des données scientifiques pèse sur les budgets. On estime qu’une part importante des connaissances scientifiques disparaît chaque année. Selon une étude réalisée en 2014, moins de 50 % des jeux de données biologiques datant des années 1990 ont été récupérés, au prix d’un investissement élevé en temps et en efforts. À titre de comparaison, 98 % des jeux de données publiés dans PLOS avec des identifiants uniques (DOI) sont toujours disponibles pour les futures recherches. Les données scientifiques ouvertes sont des ressources fondamentales pour un grand nombre d’activités de recherche, comme la méta-analyse, la reproduction des résultats ou l’accessibilité des sources primaires. De plus, leur valeur économique et sociale est importante, car les données scientifiques sont fréquemment exploitées par des professionnels non universitaires, des agences publiques et des organisations à but non lucratif. Pourtant, les données scientifiques ouvertes impliquent certains coûts. Rendre les données à la fois téléchargeables et exploitables nécessite d’importants investissements en matière de documentation, de nettoyage des données, de licences et d’indexation. Il n’est pas possible de partager toutes les données scientifiques, et des contrôles sont souvent nécessaires pour vérifier l’absence d’informations personnelles ou de contenu soumis à droit d’auteur. Pour être efficace, le partage des données doit être anticipé tout au long du cycle de vie de la recherche. Les nouveaux principes de gestion des données scientifiques visent à formaliser les cultures de données observées dans les communautés scientifiques et à appliquer des normes communes. Initialement publiés en 2016, les principes FAIR (Facilité à trouver, Accessibilité, Interopérabilité et Réutilisabilité) constituent un cadre de référence pour l’ouverture des données scientifiques. Les politiques en faveur du partage des données sont passées d’un discours général d’encouragement au développement concret de services dédiés. Les premières initiatives remontent aux infrastructures informatiques pionnières : en 1957, le système WDC (World Data Center) visait à rendre facilement accessibles un large panel de données scientifiques. Les programmes de données ouvertes étaient pourtant sévèrement limités par les lacunes techniques et les incompatibilités lors des transferts. Après 1991, le Web a fourni un cadre universel pour l’échange de données et entraîné une expansion massive des bases de données scientifiques. Et pourtant, bien des projets ont rencontré des problèmes critiques de durabilité à long terme. Les infrastructures de science ouverte sont récemment devenues des vecteurs clés de la diffusion et de la gestion des données scientifiques ouvertes. Les référentiels assurent la conservation et la découvrabilité des ressources scientifiques. Les données qu’ils hébergent sont plus fréquemment utilisées et citées que celles publiées dans les fichiers supplémentaires.
APA, Harvard, Vancouver, ISO, and other styles
2

Brinkerhoff, Derick W., Sarah Frazer, and Lisa McGregor. S'adapter pour apprendre et apprendre pour s'adapter : conseils pratiques tirés de projets de développement internationaux. RTI Press, January 2018. http://dx.doi.org/10.3768/rtipress.2018.pb.0015.1801.fr.

Full text
Abstract:
Les principes de programmation et de gestion adaptables centrés sur l’apprentissage, l’expérimentation et la prise de décisions basée sur des faits gagnent en popularité chez les bailleurs de fonds et les partenaires de mise en œuvre dans le monde du développement international. L'adaptation exige un apprentissage de manière à ce que les ajustements apportés au cours du projet soient éclairés. Cela exige des méthodes de collecte d’informations qui fassent la promotion de la réflexion, de l’apprentissage et de l’adaptation, au-delà de données préalablement précisées. Une concentration sur l’adaptation modifie la réflexion traditionnelle sur le cycle des programmes. D'une part, elle fait disparaître les séparations entre la conception, la mise en œuvre et l’évaluation et, d'autre part, elle recadre la réflexion pour prendre en compte la complexité des problèmes de développement et des voies de changements non linéaires. Le soutien de structures et de processus de gestion est essentiel pour encourager la gestion adaptable. Les organisations de mise en œuvre et les bailleurs defonds expérimentent avec la manière dont les passations de marchés, la sous-traitance, la planification du travail et les rapports peuvent être modifiés afin que la programmation adaptable soit encouragée. Des systèmes de suivi, d’évaluation et d’apprentissage bien conçus peuvent aller au-delà des exigences en matière de redevabilité et de rapports pour produire des données et des enseignements pour une prise de décisions et une gestion adaptable basées sur les faits. Il est important de continuer l’expérimentation et l’apprentissage de manière à intégrer la programmation et la gestion adaptable dans les politiques et pratiques opérationnelles des bailleurs de fonds, despartenaires pays et des entités de mise en œuvre. Nous devons consacrer des efforts continus à la constitution d'une base de faits qui pourra contribuer àla gestion adaptable de manière à ce que les résultats de développement international soient atteints.
APA, Harvard, Vancouver, ISO, and other styles
3

Langlais, Pierre-Carl. Intégrité de la recherche. Comité pour la science ouverte, 2024. https://doi.org/10.52949/60.

Full text
Abstract:
Entre 2 et 4 % des chercheurs admettent avoir déjà falsifié ou fabriqué leurs données. La prévalence de ces comportements contraires à l’éthique peut atteindre 10 % dans certaines disciplines ou certains pays. La falsification de données est une forme exacerbée de pratiques de recherche douteuses qui sont à la fois moins problématiques et beaucoup plus répandues : des enquêtes menées dans différentes disciplines ont montré que plus de la moitié des chercheurs effectuent une forme de compte-rendu sélectif ou ajoutent de nouvelles données jusqu’à obtenir des résultats significatifs. Les pratiques non éthiques nuisent à la qualité globale de la recherche. A partir du moment où elles sont validées par peer-reviewing, les données fabriquées, déformées ou sélectionnées figurent ensuite dans revues de la littérature et méta-analyses. Elles peuvent à leur tour influencer les orientations de la recherche future ou même les décisions politiques avec des implications larges en matière de santé, d’économie ou de politique. Les incitations négatives font, en la matière, l’objet d’une attention particulière : les éditeurs, les institutions et les évaluateurs de la recherche tendent à favoriser les recherches inédites qui ne se contentent pas de confirmer les hypothèses courantes. Le manque d’outils, de normes et de flux de travail adéquats pour gérer efficacement les données est également un problème fondamental. Dans la plupart des disciplines, la collecte de données n’est pas bien organisée ni maintenue : on estime que la moitié des ensembles de données créés dans les années 1990 en sciences de la vie sont déjà perdus. Les pratiques de recherche douteuses découlent en partie des lacunes courantes dans la gestion des données scientifiques. La science ouverte et le partage des données ont récemment émergé comme un cadre commun pour résoudre les problèmes d’intégrité de la recherche. Bien qu’initialement centrée sur l’accès aux publications, le mouvement de la science ouverte concerne plus largement la transparence à toutes les étapes du cycle de vie de la recherche. La diffusion des ensembles de données dans des dépôts et des infrastructures ouverts a déjà largement résolu les principaux problèmes de préservation à long terme. Elle garantit également que les erreurs potentielles ou les ajustements des indicateurs statistiques peuvent être corrigés par la suite, car les analyses et réplications ultérieures ont accès à la source de données d’origine. La science ouverte modifie la nature du débat sur l’intégrité de la recherche, qui jusque-là était resté largement détaché de l’espace public. 60 à 90 % de l’audience des plateformes scientifiques ouvertes provient de professionnels non académiques et de citoyens privés. Cette diffusion accrue crée de nouvelles responsabilités mais aussi de nouvelles opportunités d’impliquer les acteurs non académiques dans l’esprit de la science citoyenne.
APA, Harvard, Vancouver, ISO, and other styles
4

Dudoit, Alain. Les espaces européens communs de données : une initiative structurante nécessaire et adaptable au Canada. CIRANO, October 2023. http://dx.doi.org/10.54932/ryht5065.

Full text
Abstract:
Le Rapport bourgogne, publié par le CIRANO en juillet 2023, préconise la création d'un espace commun de données dans le corridor commercial stratégique des Grands Lacs et du Saint-Laurent d'ici 2030. Cette proposition s’appuie notamment sur trois rapports distincts de politiques publiés en 2022 par le groupe de travail national sur la chaîne d’approvisionnement, le Conseil des ministres responsables des transports et de la sécurité routière (COMT) et le Comité permanent de la Chambre des communes sur les transports, l'infrastructure et les collectivités. Le constat posé et les recommandations qui découlent de ces rapports soulèvent des questions de fond qui sont au centre des enjeux critiques de gouvernance, de culture d’organisation, de capacité d’exécution, de mobilisation des parties prenantes du public et du privé, ainsi que de la sous-utilisation des données au sein de l’appareil gouvernemental canadien mis à rude épreuve par des années de retard et exacerbée par les perturbations récentes liées à des catastrophes climatiques anticipées. La création d’un espace commun de données est envisagée comme un investissement structurant de l'infrastructure essentielle du Canada pour le transport intermodal et la chaîne d’approvisionnement. Ce document de travail sur les Espaces Européens Communs de Données (EECD) prolonge la synthèse et les recommandations publiées en juillet dernier. Face à l’accélération de l’économique numérique, la gouvernance et le partage efficace des données sont devenus des enjeux fondamentaux pour les politiques publiques à tous les niveaux de juridictions et dans tous domaines de l’activité humaine. Le présent document vise à examiner les initiatives et les défis associés à la gouvernance des données, en mettant particulièrement l'accent sur les Espaces Européens Communs de Données (EECD) et leur pertinence pour le contexte canadien. Il explore la complexité inhérente à la gouvernance des données, qui doit concilier les spécificités sectorielles avec des principes de gouvernance plus universels. Ce faisant, il souligne l'importance d'une action stratégique et coordonnée pour maximiser les avantages sociaux et économiques des données. Le document de travail sur les EECD étend la portée du Rapport bourgogne en fournissant une analyse opérationnelle de l'initiative en cours au sein de l'Union européenne (UE). Celle-ci découle de la stratégie européenne des données de 2020 et vise à établir douze espaces communs de données dans des secteurs stratégiques, y compris la mobilité et les transports. Le document se divise en trois parties principales. La première partie offre un aperçu des politiques publiques relatives aux données au Canada et dans l'UE entre 2018 et 2023. La deuxième partie se concentre sur les implications et les leçons tirées de l'analyse d'impact qui soutient l'adoption de la législation sur la gouvernance des données par les institutions européennes. Cette loi vise à établir un cadre réglementaire pour la création des espaces communs de données en Europe. La troisième partie aborde le déploiement actuel des EECD, en soulignant les étapes clés et les processus en cours. Le document met en évidence des similitudes notables entre l'UE et le Canada en ce qui concerne l'identification des enjeux et la formulation des objectifs de politique publique en matière de données. Il souligne aussi des différences entre ces deux partenaires stratégiques dans l’optimisation du partage des données entre les juridictions et parties prenantes. Ces deux partenaires stratégiques se distinguent cependant par une différence fondamentale: l'absence d'une mutualisation efficace des ressources au sein de l’appareil intergouvernemental canadien dans la poursuite d’objectifs communs face à des enjeux majeurs communs tel celui des données à la grande différence de l’entreprise des EECD par l’UE dans la poursuite d’objectifs identiques de positionnement comme chef de file mondial l’économie des données. Cette absence de considération et, encore moins, d’action conjointe par l’appareil intergouvernemental canadien de mise en œuvre d’une stratégie commune des données au Canada est dommageable. Pour être efficace, la réponse canadienne doit être agile, axée sur les résultats, et intégrée à travers les différentes juridictions. La gestion rigoureuse, l’utilisation responsable et le partage organisé des données au sein et entre les différentes juridictions sont des éléments cruciaux pour aborder les défis complexes et les risques majeurs auxquels le Canada est confronté. Ni le gouvernement fédéral ni ceux des provinces ne sont actuellement bien positionnés pour traiter ensemble les données comme un actif stratégique commun. La résolution des obstacles réglementaires, juridiques et techniques à l'échange de données entre juridictions et organisations nécessite la création d'un espace commun de données qui à son tour implique une combinaison des outils et des infrastructures requises à cette fin, ainsi qu'un traitement des questions de confiance notamment par des règles communes.
APA, Harvard, Vancouver, ISO, and other styles
5

Ancion, Zoé, Francis Andre, Sarah Cadorel, Romain Feret, Odile Hologne, Kenneth Maussang, Marine Moguen-Toursel, and Véronique Stoll. Plan de gestion de données – Recommandations à l’ANR. Ministère de l'enseignement supérieur et de la recherche, June 2019. http://dx.doi.org/10.52949/7.

Full text
Abstract:
Dans cette note, le Comité pour la science ouverte émet 15 recommandations à l'Agence nationale de la recherche dans la mise en place d’un plan de gestion des données. Le comité attire l'attention sur l'adoption d'une démarche progressive qui favoriserait une adhésion des communautés et une meilleure adaptation à l’évolution des pratiques.
APA, Harvard, Vancouver, ISO, and other styles
6

Nédellec, Claire, Adeline Nazarenko, Francis André, Catherine Balivo, Béatrice Daille, Anastasia Drouot, Jorge Flores, et al. Recommandations sur l’analyse automatique de documents : acquisition, gestion, exploration. Ministère de l'enseignement supérieur et de la recherche, September 2019. http://dx.doi.org/10.52949/10.

Full text
Abstract:
Le groupe de travail "Fouille de textes et analyse de données" du Comité pour la science ouverte émet des recommandations sur les bonnes pratiques pour l'analyse de données. Elles portent sur l'acquisition et le partage des documents, l'utilisation de logiciels de gestion, d’exploration ou d’analyse, l'exploitation des résultats et la diffusion d’extraits de documents.
APA, Harvard, Vancouver, ISO, and other styles
7

Tea, Céline. REX et données subjectives: quel système d'information pour la gestion des risques? Fondation pour une culture de sécurité industrielle, April 2012. http://dx.doi.org/10.57071/170rex.

Full text
Abstract:
Le retour d’expérience est conçu, dans une vision classique, comme une démarche de gestion mettant à disposition les informations nécessaires aux managers pour piloter les systèmes et gérer les risques. Malheureusement, la réalité est moins simple. Les systèmes à piloter sont des systèmes socio-techniques complexes. Le futur n’est pas déterminé par le passé. Il s’avère nécessaire de compléter le système d’information supportant la gestion des risques. Le travail présenté propose de passer d’un système fondé sur des informations extraites des expériences incidentelles du système à piloter, vers un système d’information qui intègre au mieux l’expérience des gens qui le font fonctionner. Les connaissances tacites de ces personnes expérimentées doivent alors être élicitées. Le présent travail a permis d’expérimenter au sein de la SNCF une technique d’aide à la décision issue du courant de l’analyse de la décision. Cette technique de MAUT a été appliquée à l’analyse d’un changement de réglementation concernant la conduite des trains en cas d’alerte radio. Les décisions sont traitées ici non sous un angle individuel, mais comme l’aboutissement d’un processus construit au sein d’une organisation, mettant en jeu plusieurs décideurs et plusieurs enjeux (pouvant être partiellement contradictoires). L’apport de cette technique par rapport aux méthodes classiques basées sur les arbres de défaillance est discuté. Un second niveau d’étude de l’impact de cet éventuel changement réglementaire a consisté à analyser en profondeur les raisonnements et les connaissances utilisés par les acteurs pour construire le sens de leur action en cas d’alerte radio. En modélisant les discussions entre les différents acteurs impliqués et en restituant leur point de vue en situation, il est possible d’identifier les divergences éventuelles entre les représentations de différents acteurs concernant une même situation, ainsi qu’un possible écart entre les croyances des concepteurs et les utilisateurs de la règle. Cette seconde analyse s’appuie sur une théorie de la conception dite C/K, qui met en relation les connaissances et les concepts utilisés en situation. L’auteur suggère que l’application de ces méthodes permet de voir l’analyse de risques comme un lieu d’élaboration de sens collectif sur la sécurité du système, plutôt que (dans une vision plus positiviste de la connaissance) comme une activité qui révèle et approche la vérité sur les risques, en s’appuyant sur des données factuelles et objectives. Elle propose de développer l’ingénierie du subjectif pour permettre la construction d’un système de management au sein duquel la vision d’ingénieur de la gestion des risques et la vision inspirée des courants des sciences humaines et sociales pourront cohabiter.
APA, Harvard, Vancouver, ISO, and other styles
8

Sabo, N., A. Beaulieu, D. Bélanger, Y. Belzile, and B. Piché. Le GeoHashTree, une structure de données multirésolution pour la gestion des nuages de points. Natural Resources Canada/ESS/Scientific and Technical Publishing Services, 2014. http://dx.doi.org/10.4095/293155.

Full text
APA, Harvard, Vancouver, ISO, and other styles
9

Feret, Romain, Françoise Catherine Gouzi, Sandra Guigonis, Hélène Jouguet, Nicolas Larousse, and Armelle Thomas. Recommandations aux revues souhaitant définir une « politique de données » liées aux publications. Ministère de l'enseignement supérieur et de la recherche, February 2020. http://dx.doi.org/10.52949/14.

Full text
Abstract:
Le document est destiné à des comités éditoriaux qui souhaitent mettre en place, pour leurs revues, une politique de données. Celle-ci définit ce que la revue attend de ses auteurs et autrices en matière de gestion et de diffusion des données liées à ses publications. Les recommandations portent sur sept éléments à prendre en compte dans la politique.
APA, Harvard, Vancouver, ISO, and other styles
10

Feret, Romain, Françoise Gouzi, Sandra Guigonis, Hélène Jouguet, Nicolas Larousse, and Armelle Thomas. Guidelines for journals that wish to establish a “data policy” related to their publications. Ministère de l'enseignement supérieur et de la recherche, June 2021. http://dx.doi.org/10.52949/19.

Full text
Abstract:
Le document est destiné à des comités éditoriaux qui souhaitent mettre en place, pour leurs revues, une politique de données. Celle-ci définit ce que la revue attend de ses auteurs et autrices en matière de gestion et de diffusion des données liées à ses publications. Les recommandations portent sur sept éléments à prendre en compte dans la politique.
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography