Academic literature on the topic 'Qualité des données et des informations'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the lists of relevant articles, books, theses, conference reports, and other scholarly sources on the topic 'Qualité des données et des informations.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Journal articles on the topic "Qualité des données et des informations":

1

Dupont, Danielle, Ariel Beresniak, Dipak Kalra, Pascal Coorevits, and Georges De Moor. "Intérêt des dossiers de santé électroniques hospitaliers pour la recherche clinique." médecine/sciences 34, no. 11 (November 2018): 972–77. http://dx.doi.org/10.1051/medsci/2018235.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les dossiers de santé électroniques hospitaliers contribuent à l’amélioration de la qualité des soins en permettant une meilleure gestion des informations cliniques. Les bases de données numériques ainsi constituées facilitent l’échange des informations de santé avec les prestataires de soins et optimisent la coordination multidisciplinaire pour de meilleurs résultats thérapeutiques. Le projet européen EHR4CR (electronic health records for clinical research) a développé une plateforme pilote innovante permettant de réutiliser ces données numériques pour la recherche clinique. En améliorant et en accélérant les procédures de recherche clinique, cette approche permet d’envisager la réalisation d’études cliniques de manière plus efficiente, plus rapide et plus économique.
2

Fillol, Erwann, Frédéric Ham, and Alex Orenstein. "Système d’information et de modélisation de la vulnérabilité pastorale pour la gestion et la prévention des crises au sahel." Revue d’élevage et de médecine vétérinaire des pays tropicaux 73, no. 3 (September 23, 2020): 169–77. http://dx.doi.org/10.19182/remvt.31903.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
L’élevage pastoral au Sahel est extrêmement dépendant des irrégularités climatiques, et particulièrement de la qualité de la saison des pluies qui conditionne la repousse des pâturages et le remplissage des points d’eau. Les éleveurs nomades et transhumants adaptent leurs stratégies de déplacement à l’état et à la disponibilité de ces ressources. Les outils de suivi de la sécurité alimentaire de ces territoires pastoraux doivent donc intégrer, en plus des données spatialisées sur la biomasse, des informations sur ces mouvements pastoraux et sur les facteurs qui les conditionnent. Pour accompagner les systèmes d’alerte locaux au Sahel, l’organisation non gouvernementale Action contre la Faim propose un modèle de vulnérabilité pastorale basé sur des données satellitaires acquises en temps réel et sur la connaissance des pratiques pastorales. Ce modèle permet d’alimenter en informations un système d’alerte précoce en identifiant les zones d’intérêt pastoral déficitaires en ressources plusieurs mois avant la période de soudure potentiellement problématique. La confrontation avec l’information concomitante collectée sur le terrain par des relais sentinelles permet une surveillance de la situation pastorale, contribuant au développement des infrastructures ou au déploiement de l’aide humanitaire.
3

Saraswati, Chintia Ellisa. "LA TRANSGRESSION DU PRINCIPE DE COOPÉRATION DANS LE FILM D’ANIMATION UN MONSTRE À PARIS. MEMOIRE." Lingua Litteratia Journal 6, no. 1 (June 12, 2019): 84–94. http://dx.doi.org/10.15294/ll.v6i1.30843.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Le sujet de cette recherche est la transgression du principe de la coopération dans le film “Un Monstre à Paris” et leurs implicatures. Cette recherche a pour but de trouver et décrire les transgressions du principe de coopération. Cette recherche utilise deux approches, ce sont : l’approche théorétique (l’approche de la pragmatique) et méthodologique (descriptive-analytiquequalitative). Les données utilisées sont des syntagmes ou des phrases dans c’est film contenant les transgressions du principe de coopération. J’utilise la méthode d’épargne (lire attentivement) pour collecter des données, avec la technique de base « taraudage de langue » et les techniques avancées « la technique non participé à la conversation réelle » et aussi la technique « noter ». Pour analyser les données, j’utilise la méthode d'appariement pragmatique avec l’utilisation de la technique de « divisé des éléments déterminé », et puis continuée par la technique avancée « relier-comparer-différencier » pour trouver des énoncés qui obéissant aux principes de la coopération et les transgressions. Basée sur l’analyse, la chercheuse a trouvé 21 énonciations transgressant le principe de la coopération dans le Film d’animation Un Monstre À Paris. Ce sont la transgression de la maxime de qualité (4 parole), transgression de la maxime de quantité (5 parole), transgression de la maxime de relation (4 parole), transgression de la maxime de manière (5 parole), transgression de la maxime de relation et quantité (2 parole), transgression de la maxime de manière et qualité (1 parole ), transgression de la maxime de manière, qualité et quantité (1 parole), transgression de la maxime de relation de qualité et quantité (1 parole). Il se trouve aussi leurs implicatures dans ces paroles, ce sont couvrir des informations, se moquer, se craindre, se vanter de quelque chose, couvrir de mauvaises choles, clarifier des informations, impliquer le sens d’implicite, exprimer le doute, honte, faire la quinte, etc. Du résultat de la recherche, je voudrais conclure que toutes les maximes sont transgressées par les personnages dans ce film et chaque transgression à son implicature: c’est l’intention des personnages.
4

Saraswati, Chintia Ellisa, and Bernadus Wahyudi Joko Santoso. "La Transgression du Principe de Coopération dans le Film d’Animation “Un Monstre À Paris”." Lingua Litteratia Journal 7, no. 1 (May 29, 2020): 15–22. http://dx.doi.org/10.15294/ll.v7i1.38819.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Le sujet de cette recherche est la transgression du principe de la coopération dans le film “Un Monstre à Paris” et leurs implicatures. Cette recherche a pour but de trouver et décrire les transgressions du principe de coopération. Cette recherche utilise deux approches, ce sont : l’approche théorétique (l’approche de la pragmatique) et méthodologique (descriptive-analytiquequalitative). Les données utilisées sont des syntagmes ou des phrases dans c’est film contenant les transgressions du principe de coopération. J’utilise la méthode d’épargne (lire attentivement) pour collecter des données, avec la technique de base « taraudage de langue » et les techniques avancées « la technique non participé à la conversation réelle » et aussi la technique « noter ». Pour analyser les données, j’utilise la méthode d'appariement pragmatique avec l’utilisation de la technique de « divisé des éléments déterminé », et puis continuée par la technique avancée « reliercomparer-différencier » pour trouver des énoncés qui obéissant aux principes de la coopération et les transgressions. Basée sur l’analyse, la chercheuse a trouvé 21 énonciations transgressant le principe de la coopération dans le Film d’animation Un Monstre À Paris. Ce sont la transgression de la maxime de qualité (4 parole), transgression de la maxime de quantité (5 parole), transgression de la maxime de relation (4 parole), transgression de la maxime de manière (5 parole), transgression de la maxime de relation et quantité (2 parole), transgression de la maxime de manière et qualité (1 parole ), transgression de la maxime de manière, qualité et quantité (1 parole), transgression de la maxime de relation de qualité et quantité (1 parole). Il se trouve aussi leurs implicatures dans ces paroles, ce sont couvrir des informations, se moquer, se craindre, se vanter de quelque chose, couvrir de mauvaises choles, clarifier des informations, impliquer le sens d’implicite, exprimer le doute, honte, faire la quinte, etc. Du résultat de la recherche, je voudrais conclure que toutes les maximes sont transgressées par les personnages dans ce film et chaque transgression à son implicature: c’est l’intention des personnages.
5

Robertson-Lang, Laura, Sonya Major, and Heather Hemming. "An Exploration of Search Patterns and Credibility Issues among Older Adults Seeking Online Health Information." Canadian Journal on Aging / La Revue canadienne du vieillissement 30, no. 4 (November 16, 2011): 631–45. http://dx.doi.org/10.1017/s071498081100050x.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
RÉSUMÉL’Internet est une ressource importante des informations sur la santé, parmi les jeunes et les aînés aussi. Malheureusement, il y a des limites associées aux renseignements en ligne sur la santé. Des travaux de recherche sont nécessaires pour évaluer la qualité des informations trouvées en ligne et pour déterminer si les utilisateurs sont des consommateurs critiques des informations qu’ils y trouvent. On a besoin aussi de la recherche pour étudier comment utilisent l’enquête en ligne les personnes de 65 ans et plus – un contingent démographique croissant des utilisateurs de l’Internet. L’étude actuelle présente des importantes données descriptives sur les motifs de recherche de personnes agées cherchant des informations de santé en ligne, les types de sujets qu’ils là recherchent, et si elles considèrent les questions de crédibilité lors de la récupération des informations de santé en ligne. Une comparaison est également faite entre les stratégies de recherche utilisées dans le texte imprimé et dans les hypertextes environnants. Les résultats, qui ont d’importantes implications en ce qui concerne les questions de crédibilité, soulignent la nécessité d’accroître la sensibilisation au sujet des compétences essentielles en chercher chez les personnes âgées qui sont utilisateurs de l’Internet.
6

Nguyen, Hong Trang, Sophie Duchesne, Jean-Pierre Villeneuve, Babacar Toumbou, and Nomessi Kokutse. "Modélisation du régime hydrologique à l’échelle du bassin versant dans le cas de données restreintes : cas de la rivière Cau au Vietnam." Revue des sciences de l’eau 31, no. 3 (December 10, 2018): 201–15. http://dx.doi.org/10.7202/1054303ar.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les aménagements opérés sur le territoire d’un bassin versant, notamment les processus rapides d’urbanisation et d’industrialisation, ont souvent un impact important sur les ressources en eau, tant en quantité qu’en qualité. La gestion intégrée des ressources en eau par bassin versant (GIEBV) est une méthode reconnue pour évaluer et contrôler l’impact de ces aménagements sur le régime hydrologique. Cette approche de GIEBV est d’autant plus bénéfique dans un contexte de données restreintes et/ou de mauvaise qualité. Dans un tel contexte, un modèle hydrologique peut permettre d’estimer les débits en rivière en tout point du bassin versant. Cet article étudie la capacité du modèle hydrologique distribué Hydrotel à reconstruire le régime hydrologique dans un contexte de données restreintes. Une application sur le bassin versant de la rivière Cau, au Vietnam, est présentée. Une méthodologie originale est également proposée pour identifier la discrétisation spatiale la plus appropriée pour la simulation hydrologique à l’échelle d’un bassin versant en fonction de l’objectif recherché. Les résultats obtenus démontrent que, même sur un bassin versant où les données disponibles sont limitées en quantité et en qualité, Hydrotel peut apporter des informations utiles pour la mise en place de la GIEBV. Cette application réussie d’Hydrotel dans une région tropicale soumise à la mousson et où les données hydrologiques sont restreintes permettra de promouvoir la démarche de GIEBV basée sur la modélisation des processus en Asie du Sud-Est, en général, et au Vietnam, plus particulièrement.
7

Diop, Sérigné. "Peut-on piloter la performance organisationnelle en l’absence de données sur les coûts ? Enquête exploratoire auprès des PME au Sénégal." Revue Management & Innovation N° 2, no. 2 (October 28, 2020): 143–60. http://dx.doi.org/10.3917/rmi.202.0143.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La place qu’occupent les informations sur les coûts calculés dans le pilotage de la performance des petites et moyennes entreprises (PME) Ouest-africaines demeure un aspect très peu abordé par la recherche en sciences de gestion. C’est dans ce sens qu’une étude exploratoire a été conduite auprès des PME au Sénégal afin de mettre à la disposition des managers deux modèles complémentaires (dans le cas de l’organisation ambidextre) de pilotage de la performance organisationnelle : un modèle de performance prenant en compte les données sur les coûts et un modèle de performance faisant abstraction des données sur les coûts mais basé sur la qualité des produits (Q), la capacité d’innovation (I), le respect des délais (D), l’apprentissage organisationnel (AO) et la flexibilité des outils de gestion (F).
8

VAILLANT-ROUSSEL, H., C. BLANCHARD, T. MENINI, E. CHARUEL, B. PEREIRA, F. NAUDET, B. KASSAI, et al. "PROJET REBUILD THE EVIDENCE." EXERCER 34, no. 190 (February 1, 2023): 81–88. http://dx.doi.org/10.56746/exercer.2023.190.81.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Introduction. La médecine fondée sur les preuves (EBM) est la pierre angulaire de la décision médicale partagée. Le public mérite des informations claires, transparentes et dignes de confiance sur l’efficacité des médicaments. Pourtant, aujourd’hui, de nombreux médicaments sont prescrits et utilisés sans preuve solide de leur efficacité. Les essais cliniques randomisés (ECR) et leurs méta-analyses sont les meilleures études pour évaluer l’efficacité des médicaments et leurs effets indésirables, mais leurs résultats ne sont pas facilement interprétables en pratique et sont même parfois discutables par rapport aux données retenues. Dans une approche de décision médicale partagée, les médecins généralistes ont besoin que l’évaluation des médicaments soit fondée sur des résultats importants et pertinents pour le patient. L’objectif du projet Rebuild the Evidence Base (REB) est de combler le fossé entre les données nécessaires à la pratique clinique et les données disponibles de la recherche clinique. Méthodes et analyses. Les médicaments seront évalués selon des critères cliniques importants pour les patients et dans une population donnée. En utilisant les outils Cochrane, pour chaque population et critère d’évaluation choisis, seront réalisées : 1. une méta-analyse, fondée sur des essais contrôlés randomisés (ECR) avec un faible risque global de biais ; 2. l’évaluation des résultats issus des ECR de confirmation ; 3. l’évaluation de l’hétérogénéité statistique entre essais (I2), et 4. l’évaluation du risque de biais de publication. En fonction des résultats de ces analyses, les preuves seront évaluées selon quatre niveaux : preuve solide, résultat probant mais à confirmer, signal à confirmer, ou absence de preuve. Conclusion. Le projet REB propose une méthode de lecture et d’interprétation des essais cliniques randomisés et de leur méta-analyse afin de produire des données de qualité permettant aux médecins généralistes de se centrer sur l’évaluation du bénéfice-risque dans l’intérêt des patients. Si ces données n’existent pas, cela permettra à la recherche clinique de mieux définir ses objectifs.
9

Nguyen, Phu Duc, Jean-Pierre Villeneuve, Babacar Toumbou, Sophie Duchesne, and Nomessi Kokutse. "Utilisation de la modélisation de la qualité de l’eau en rivière pour l’évaluation du respect des normes en contexte de données restreintes : cas d’application du bassin versant de la rivière Cau." Revue des sciences de l’eau 31, no. 3 (December 10, 2018): 271–90. http://dx.doi.org/10.7202/1054307ar.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La dégradation de la qualité de l’eau des bassins versants est principalement due au développement socio-économique, dont découlent la croissance démographique, l’urbanisation, l’industrialisation et l’intensification de l’agriculture. La gestion intégrée des ressources en eau par bassin versant (GIEBV) peut être appliquée pour limiter cet impact négatif. Le modèle GIBSI (Gestion Intégrée par Bassin versant à l’aide d’un Système Informatisé) est un outil qui peut être utilisé pour cette GIEBV. GIBSI inclut notamment un sous-modèle pour la production et le transport de l'azote et du phosphore (PO) ainsi qu’un sous-modèle pour la qualité de l’eau en rivière (Qual-GIBSI). Cette étude est axée principalement sur l’applicabilité de ces deux sous-modèles dans une zone tropicale avec un climat de type mousson dans un contexte de données restreintes. Cet exercice a comme objectif, entre autres, de valider si ces sous-modèles sont applicables dans ces conditions. L’application permet également de vérifier dans quelle mesure les normes de qualité de l’eau en rivière sont respectées. Le bassin versant de la rivière Cau au Vietnam est utilisé comme cas d’application. Nous avons démontré à travers cette étude que, même sur ce bassin versant tropical soumis à la mousson où les données disponibles sont limitées en quantité et en qualité, les modèles PO et Qual-GIBSI peuvent apporter des informations utiles pour la gestion de la qualité de l’eau.
10

Dori, Daniel, Frédéric Eric Sawadogo, B. Josias Gérard Yaméogo, Nicolas Méda, and Rasmané Semdé. "Etude des pratiques des délégués médicaux et de la qualité des informations fournies aux agents de santé lors des visites de promotion des produits de santé." Journal Africain de Technologie Pharmaceutique et Biopharmacie (JATPB) 2, no. 2 (November 15, 2023): 39–49. http://dx.doi.org/10.57220/jatpb.v2i2.57.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Introduction : La justesse, la fiabilité et la qualité des informations pharmaco-thérapeutiques fournies par les visiteurs médicaux aux agents de santé participent à une meilleure prise en charge des patients. La présente étude a pour objectif d’analyser les pratiques des délégués médicaux et la qualité des informations fournies aux agents de santé lors des visites de promotion des produits de santé Méthodes : Il s’est agi d’une étude transversale descriptive qui a concerné les visiteurs médicaux de la Commune de Ouagadougou et leurs outils de promotion des produits de santé. Elle a été réalisée par enquête dans les formations sanitaires en des grilles d’observation. Les données ont été compilées et analysées à l’aide du logiciel Sphynx V. Résultats : La visite médicale était faite à l’improviste par 75,0% des visiteurs médicaux avec des supports d’information dont plus de 60% avaient un contenu ne respectant pas toujours la règlementation en vigueur. Des non-conformités ont été trouvées sur plus de 50% des supports documentaires. En outre, les visiteurs médicaux omettaient souvent de mentionner certaines informations pharmaco-thérapeutiques pourtant obligatoires. Plusieurs techniques promotionnelles utilisées telles que les dons d’échantillons médicaux gratuits, de gadgets, de collations ou de bons d’achat, l’organisation de pause-café et les campagnes d’échantillons bonus étaient non conformes aux bonnes pratiques. Conclusion : Les pratiques de promotion des visiteurs médicaux n’étaient pas conformes la règlementation. Des contrôles et des mesures sont à mettre en œuvre pour une mise à disposition d’informations médicales de qualité au profit des agents de santé.

Dissertations / Theses on the topic "Qualité des données et des informations":

1

Le, conte des floris Robin. "Effet des biais cognitifs et de l'environnement sur la qualité des données et des informations." Electronic Thesis or Diss., Université Paris sciences et lettres, 2024. http://www.theses.fr/2024UPSLM004.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Du point de vue du philosophe Friedrich Nietzsche, il n’y a pas de réalité qui existe en soi, pas de fait brut, pas de réalité absolue : tout ce que nous définissons comme étant la réalité n’est, en fait, que le résultat de processus d’interprétation qui nous sont propres. Or, les données stockées sur les systèmes d’information ne sont souvent rien d’autre que la représentation codée de déclarations émises par des êtres humains, relevant donc intrinsèquement de l’interprétation humaine et étant par conséquent affectées par les mêmes biais et limites qui caractérisent la psyché humaine. Cette thèse propose un nouveau cadre conceptuel, le modèle "Data Binding and Reification" (DBR), qui décrit le processus d’interprétation des données, puis de réification de l’information, en utilisant une nouvelle approche qui place les mécanismes de perception humaine au cœur de celui-ci. En mobilisant les sciences cognitives et comportementales, cette approche permet d’identifier dans quelle mesure l’intervention de l’homme et la structure de l’environnement auquel il est soumis conditionnent l’apparition de biais cognitifs affectant ces processus. Les résultats expérimentaux valident partiellement ce modèle en identifiant les caractéristiques de l’environnement affectant, dans un contexte organisationnel, le processus de collecte de données et la qualité des informations produites. Ces travaux ouvrent de nombreuses perspectives, telles que l’élaboration d’une architecture de choix au sens de l’économiste Richard Thaler, pouvant améliorer le processus même de collecte de données en modifiant l’expérience des utilisateurs du système d’information
From the perspective of philosopher Friedrich Nietzsche, there is no reality that exists in itself, no raw fact, no absolute reality: everything that we define as reality is, in fact, only the result of interpretation processes that are unique to us. Mo-reover, the data stored in information systems is often nothing more than the coded representation of statements made by human beings, thereby inherently involving human interpretation and consequently being affected by the same biases and limitations that characterize the human psyche. This thesis introduces a new conceptual framework, the "Data binding and reification" (DBR) model, that describes the process of data interpretation, and then the reification of information, using a new approach that places human-perception mechanisms at the heart of this process. By mobilizing cognitive and beha-vioral sciences, this approach allows us to identify to what extent human intervention and the structure of the environment to which one is subjected condition the emergence of cognitive biases affecting these processes. Experimental results partially validate this model by identifying the characteristics of the environment that affect, in an organizational context, the data-collection process and the quality of the information produced. This work opens up numerous perspectives, such as the development of a choice architecture in the sense of the economist Richard Thaler, which could improve the very process of data collection by modifying the experience of users of the information system
2

Ravi, Mondi. "Confiance et incertitude dans les environnements distribués : application à la gestion des donnéeset de la qualité des sources de données dans les systèmes M2M (Machine to Machine)." Thesis, Université Grenoble Alpes (ComUE), 2016. http://www.theses.fr/2016GREAM090/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La confiance et l'incertitude sont deux aspects importants des systèmes distribués. Par exemple, de multiples sources d'information peuvent fournir le même type d'information. Cela pose le problème de sélectionner la source la plus fiable et de résoudre l'incohérence dans l'information disponible. Gérer de front la confiance et l'incertitude constitue un problème complexe et nous développons à travers cette thèse, une solution pour y répondre. La confiance et l'incertitude sont intrinsèquement liés. La confiance concerne principalement les sources d'information alors que l'incertitude est une caractéristique de l'information elle-même. En l'absence de mesures de confiance et d'incertitude, un système doit généralement faire face à des problèmes tels que l'incohérence et l'incertitude. Pour aborder ce point, nous émettons l'hypothèse que les sources dont les niveaux de confiance sont élevés produiront de l'information plus fiable que les sources dont les niveaux de confiance sont inférieurs. Nous utilisons ensuite les mesures de confiance des sources pour quantifier l'incertitude dans l'information et ainsi obtenir des conclusions de plus haut niveau avec plus de certitude.Une tendance générale dans les systèmes distribués modernes consiste à intégrer des capacités de raisonnement dans les composants pour les rendre intelligents et autonomes. Nous modélisons ces composants comme des agents d'un système multi-agents. Les principales sources d'information de ces agents sont les autres agents, et ces derniers peuvent posséder des niveaux de confiance différents. De plus, l'information entrante et les croyances qui en découlent sont associées à un degré d'incertitude. Par conséquent, les agents sont confrontés à un double problème: celui de la gestion de la confiance sur les sources et celui de la présence de l'incertitude dans l'information. Nous illustrons cela avec trois domaines d'application: (i) la communauté intelligente, (ii) la collecte des déchets dans une ville intelligente, et (iii) les facilitateurs pour les systèmes de l'internet du futur (FIWARE - le projet européen n° 285248, qui a motivé la recherche sur nos travaux). La solution que nous proposons consiste à modéliser les composants de ces domaines comme des agents intelligents qui incluent un module de gestion de la confiance, un moteur d'inférence et un système de révision des croyances. Nous montrons que cet ensemble d'éléments peut aider les agents à gérer la confiance aux autres sources, à quantifier l'incertitude dans l'information et à l'utiliser pour aboutir à certaines conclusions de plus haut niveau. Nous évaluons finalement notre approche en utilisant des données à la fois simulées et réelles relatives aux différents domaines d'application
Trust and uncertainty are two important aspects of many distributed systems. For example, multiple sources of information can be available for the same type of information. This poses the problem to select the best source that can produce the most certain information and to resolve incoherence amongst the available information. Managing trust and uncertainty together forms a complex problem and through this thesis we develop a solution to this. Trust and uncertainty have an intrinsic relationship. Trust is primarily related to sources of information while uncertainty is a characteristic of the information itself. In the absence of trust and uncertainty measures, a system generally suffers from problems like incoherence and uncertainty. To improve on this, we hypothesize that the sources with higher trust levels will produce more certain information than those with lower trust values. We then use the trust measures of the information sources to quantify uncertainty in the information and thereby infer high level conclusions with greater certainty.A general trend in the modern distributed systems is to embed reasoning capabilities in the end devices to make them smart and autonomous. We model these end devices as agents of a Multi Agent System. Major sources of beliefs for such agents are external information sources that can possess varying trust levels. Moreover, the incoming information and beliefs are associated with a degree of uncertainty. Hence, the agents face two-fold problems of managing trust on sources and presence of uncertainty in the information. We illustrate this with three application domains: (i) The intelligent community, (ii) Smart city garbage collection, and (iii) FIWARE : a European project about the Future Internet that motivated the research on this topic. Our solution to the problem involves modelling the devices (or entities) of these domains as intelligent agents that comprise a trust management module, an inference engine and a belief revision system. We show that this set of components can help agents to manage trust on the other sources and quantify uncertainty in the information and then use this to infer more certain high level conclusions. We finally assess our approach using simulated and real data pertaining to the different application domains
3

Boydens, Isabelle. "Evaluer et améliorer la qualité de l'information: herméneutique des bases de données administratives." Doctoral thesis, Universite Libre de Bruxelles, 1998. http://hdl.handle.net/2013/ULB-DIPOT:oai:dipot.ulb.ac.be:2013/212039.

Full text
APA, Harvard, Vancouver, ISO, and other styles
4

Mantilla, Morales Gabriela. "Modélisation des transferts de nitrates, confrontation des concepts, des données et des informations : application au bassin de la Charente." Phd thesis, Ecole Nationale des Ponts et Chaussées, 1995. http://pastel.archives-ouvertes.fr/pastel-00569426.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La modélisation du transfert de nitrates a été étudiée à différentes échelles de bassins versants. Un modèle semi-distribué à pas de temps journalier a été élaboré et testé sur des sous-bassins de la Charente (France). Il prend en compte les transferts d'azote depuis les apports de fertilisants jusqu'à la dénitrification dans le cours d'eau. Le but principal recherché est la simulation de la concentration en nitrates à l'exutoire des bassins versants. Un modèle hydrologique de type conceptuel (GR3) a été choisi et adapté à la simulation du transfert de nitrates. Le modèle conceptuel de lessivage est relié de manière étroite au modèle pluie - débit, tant par les variables d'état que par les paramètres. Le calage a été fait sur les sous-bassins où sont connus, à la fois, les débits et les concentrations. L'utilisation du modèle est ensuite étendue à des bassins sur lesquels on ne dispose que d'un seul de ces deux termes ou bien d'aucun d'entre eux. Le modèle résultant de ces travaux a été appliqué à la fois sur un grand bassin versant d'environ 9500 km2 (la Charente), sur ses stations intermédiaires de suivi de qualité de l'eau et sur un petit sous-bassin expérimental d'environ 5,5 km2 (le Ruiné). Les résultats montrent que le modèle reproduit d'une manière correcte la tendance à long terme des flux. Les variations saisonnières sont bien respectées pour la plupart des stations à défaut de rendre compte de toutes les valeurs isolées. Le comportement de la concentration en nitrates pendant les crues a été étudié sur le Ruiné à un pas de temps horaire. Nous avons observé, dans la relation avec les débits, des formes d'hystérésis analogues à celles qui se présentent avec les matières en suspension, ce qui témoigne de la complexité des phénomènes de lessivage et de transfert dans ce bassin versant. Ces processus ne peuvent être convenablement reproduits à l'heure actuelle, qu'au prix d'une variation des paramètres du modèle qu'il reste encore à expliquer.
5

Merino, Laso Pedro. "Détection de dysfonctionements et d'actes malveillants basée sur des modèles de qualité de données multi-capteurs." Thesis, Ecole nationale supérieure Mines-Télécom Atlantique Bretagne Pays de la Loire, 2017. http://www.theses.fr/2017IMTA0056/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les systèmes navals représentent une infrastructure stratégique pour le commerce international et les activités militaires. Ces systèmes sont de plus en plus informatisés afin de réaliser une navigation optimale et sécurisée. Pour atteindre cet objectif, une grande variété de systèmes embarqués génèrent différentes informations sur la navigation et l'état des composants, ce qui permet le contrôle et le monitoring à distance. Du fait de leur importance et de leur informatisation, les systèmes navals sont devenus une cible privilégiée des pirates informatiques. Par ailleurs, la mer est un environnement rude et incertain qui peut produire des dysfonctionnements. En conséquence, la prise de décisions basée sur des fausses informations à cause des anomalies, peut être à l'origine de répercussions potentiellement catastrophiques.Du fait des caractéristiques particulières de ces systèmes, les méthodologies classiques de détection d'anomalies ne peuvent pas être appliquées tel que conçues originalement. Dans cette thèse nous proposons les mesures de qualité comme une potentielle alternative. Une méthodologie adaptée aux systèmes cyber-physiques a été définie pour évaluer la qualité des flux de données générés par les composants de ces systèmes. À partir de ces mesures, une nouvelle approche pour l'analyse de scénarios fonctionnels a été développée. Des niveaux d'acceptation bornent les états de normalité et détectent des mesures aberrantes. Les anomalies examinées par composant permettent de catégoriser les détections et de les associer aux catégories définies par le modèle proposé. L'application des travaux à 13 scénarios créés pour une plate-forme composée par deux cuves et à 11 scénarios pour deux drones aériens a servi à démontrer la pertinence et l'intérêt de ces travaux
Naval systems represent a strategic infrastructure for international commerce and military activity. Their protection is thus an issue of major importance. Naval systems are increasingly computerized in order to perform an optimal and secure navigation. To attain this objective, on board vessel sensor systems provide navigation information to be monitored and controlled from distant computers. Because of their importance and computerization, naval systems have become a target for hackers. Maritime vessels also work in a harsh and uncertain operational environments that produce failures. Navigation decision-making based on wrongly understood anomalies can be potentially catastrophic.Due to the particular characteristics of naval systems, the existing detection methodologies can't be applied. We propose quality evaluation and analysis as an alternative. The novelty of quality applications on cyber-physical systems shows the need for a general methodology, which is conceived and examined in this dissertation, to evaluate the quality of generated data streams. Identified quality elements allow introducing an original approach to detect malicious acts and failures. It consists of two processing stages: first an evaluation of quality; followed by the determination of agreement limits, compliant with normal states to identify and categorize anomalies. The study cases of 13 scenarios for a simulator training platform of fuel tanks and 11 scenarios for two aerial drones illustrate the interest and relevance of the obtained results
6

Kerrouche, Abdelali. "Routage des données dans les réseaux centrés sur les contenus." Thesis, Paris Est, 2017. http://www.theses.fr/2017PESC1119/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les Réseaux Orientés Contenus (Information Centric Networking (ICN)) représentent un nouveau paradigme qui se développe de plus en plus dans le monde de l’Internet. Ils mettent en avant de nouvelles approches centrées sur le contenu pour concevoir une nouvelle architecture pour le réseau Internet du futur dont l’usage bascule aujourd’hui d’une communication orientée machines (hosts) vers une distribution et une récupération de contenus à large échelle.Dans ce cadre, plusieurs architectures de type ICN ont été proposées par la communauté scientifique dans le cadre de plusieurs projets internationaux : DONA, PURSUIT, SAIL, COMET, CONVERGENCE, Named Data Networking (NDN), etc.Nos travaux de thèse se sont focalisés sur la problématique du routage dans les réseaux de ce type, au travers d’une architecture de type NDN qui représente aujourd’hui une des architectures ICN les plus évoluées.En particulier, nous nous sommes intéressés à concevoir et à mettre en œuvre des solutions de routage qui intègrent les métriques de qualité de service (QdS) dans les architectures NDN au regard de usages courants dans le réseau Internet. Celui-ci est en effet caractérisé par une hétérogénéité des liaisons et des conditions de trafic hautement dynamiques.Dans ce type d’architectures, la diffusion des paquets de données est organisée en deux plans : le plande routage et le plan d’acheminement. Ce dernier est responsable de l’acheminement des paquets sur l’ensemble des chemins disponibles au moyen d’une stratégie identifiée en amont. Le plan du routage est quant à lui utilisé uniquement pour soutenir le plan d’acheminement. De fait, les solutions que nous proposons consistent en de nouvelles stratégies d’acheminement avec QdS que nous qualifions d’adaptatives. Ces stratégies sont capables de transmettre les paquets sur de multiples chemins tout en considérant les paramètres de QdS liés à l’état du réseau et collectés en temps réel.La première approche proposée est conçue sur la base d’une méthode d’apprentissage inductif,du type Q-learning en ligne, et est utilisée pour estimer les informations collectées sur l’état dynamique du réseau.La deuxième contribution consiste dans une stratégie d’acheminement adaptatif conçue pour les architectures NDN et prenant en compte les métriques liées à la QdS. Elle est basée sur les similarités entre le processus d’acheminement des paquets dans les architectures NDN et le comportement des fourmis lors de la recherche du plus court chemin entre leur nid et les sources de nourriture. Les techniques utilisées pour concevoir cette stratégie sont inspirées des approches d’optimisation utilisées dans les algorithmes de type « colonies de fourmis ».Enfin, dans la dernière partie de la thèse, nous généralisons l’approche décrite ci-dessus pour l’étendre à la prise en compte simultanée de plusieurs paramètres de QdS. Sur la base de ces mêmes principes, cette approche a ensuite été étendue à la résolution des problèmes liés à la congestion.Les résultats obtenus montrent l’efficacité des solutions proposées dans une architecture NDN et permettent ainsi de considérer les paramètres de QdS dans les mécanismes d’acheminement des paquets ouvrant la voie à diverses applications orientées contenus sur ce type d’architecture
The Information Centric Networking (ICN) represents a new paradigm that is increasingly developed within the Internet world. It brings forward new content-centric based approaches, in order to design a new architecture for the future Internet, whose usage today shifts from a machine oriented communication (hosts) to a large-scale content distribution and retrieval.In this context, several ICN architectures have been proposed by the scientific community, within several international projects: DONA, PURSUIT, SAIL, COMET, CONVERGENCE, Named Data Networking (NDN), etc.Our thesis work has focused on the problems of routing in such networks, through a NDN architecture, which represents one of the most advanced ICN architectures nowadays.In particular, we were interested in designing and implementing routing solutions that integrate quality-of-service metrics (QoS) in the NDN architecture in terms of current Internet usage. This latter is indeed characterized by a heterogeneity of connections and highly dynamic traffic conditions.In this type of architecture, data packets broadcast is organized in two levels: the routing planand the forwarding plane. The latter is responsible for routing packets on all available paths through an identified upstream strategy. The routing plan is meanwhile used only to support the forwarding plane. In fact, our solutions consist of new QoS routing strategies which we describe as adaptive. These strategies can transmit packets over multiple paths while taking into account the QoS parameters related to the state of the network and collected in real time.The first proposed approach is designed on the basis of a on-line Q-learn type inductive learning method, and is used to estimate the information collected on the dynamic state of the network.The second contribution is an adaptive routing strategy designed for NDN architectures which considers the metrics related to QoS. It is based on the similarities between the packet forwarding process in the NDN architecture and the behavior of ants when finding the shortest path between their nest and food sources. The techniques used to design this strategy are based on optimization approaches used "ant colonies" algorithms.Finally, in the last part of the thesis, we generalize the approach described above to extend it to the simultaneous consideration of several QoS parameters. Based on these principles, this approach was later extended to solving problems related to congestion.The results show the effectiveness of the proposed solutions in an NDN architecture and thus allow to consider QoS parameters in packet delivery mechanisms paving the way for various content-oriented applications on this architecture
7

Glele, Ahanhanzo Yolaine. "Qualité des données dans le système d'information sanitaire de routine et facteurs associés au Bénin: place de l'engagement au travail." Doctoral thesis, Universite Libre de Bruxelles, 2014. http://hdl.handle.net/2013/ULB-DIPOT:oai:dipot.ulb.ac.be:2013/209216.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La qualité des données est un enjeu essentiel dans les systèmes d’information sanitaire vue l’importance de ces derniers pour la prise de décision. Ce travail de recherche a un objectif double :i) d’une part, celui de mesurer la qualité des données dans le système d’information sanitaire de routine au Bénin, et, ii) d’autre part, celui d’identifier les facteurs associés à cette qualité des données en déterminant la place de l’engagement au travail au sein de ces interactions. Le but visé est finalement de fournir des outils opérationnels et des pistes de réflexion pour la santé publique et dans le domaine la recherche, pour l’amélioration de la qualité des données.

Dans les centres de santé de 1er échelon des départements de l’Atlantique et du Littoral, au sud du Bénin, nous avons développé six études pour atteindre les objectifs de recherche. Les études 1 et 2 basées respectivement sur les méthodologies lot quality assurance sampling et capture recapture sont destinées à mesurer la qualité des données. Les études 3 et 4, transversales, analysent l’engagement au travail des agents de santé responsables du SISR au niveau opérationnel. Les études 5 et 6, respectivement transversale et prospective, identifient les facteurs associés à la qualité des données.

Il ressort de ces analyses que :

•\
Doctorat en Sciences de la santé publique
info:eu-repo/semantics/nonPublished

8

Ben, Khedher Anis. "Amélioration de la qualité des données produits échangées entre l'ingénierie et la production à travers l'intégration de systèmes d'information dédiés." Thesis, Lyon 2, 2012. http://www.theses.fr/2012LYO20012.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Le travail présenté dans ce mémoire de thèse apporte sa contribution à l'amélioration de la qualité des données échangées entre la production et les services d'ingénierie dédiés à la conception du produit et du système de production associé. Cette amélioration de la qualité des données passe par l'étude des interactions entre la gestion du cycle de vie du produit et la gestion de la production.Ces deux concepts étant supportés, tout ou partie, par des systèmes d'information industriels, l'étude de leurs interactions a ensuite conduit à l'intégration de ces systèmes d'information (PLM, ERP et MES). Dans un contexte de forte concurrence et de mondialisation, les entreprises sont obligées d'innover et de minimiser les coûts, notamment ceux de production. Face à ces enjeux, le volume des données de production et leur fréquence de modification ne cessent d'augmenter en raison de la réduction constante de la durée de vie et de mise sur le marché des produits, de la personnalisation accrue des produits et en n de la généralisation des démarches d'amélioration continue en production. La conséquence directe est alors la nécessité de formaliser et de gérer l'ensemble des données de production devant être fournies aux opérateurs de production et aux machines. Suite à une analyse du point de vue de la qualité des données pour chaque architecture existante démontrant ainsi leur incapacité à répondre à cette problématique, une architecture basée sur l'intégration des trois systèmes d'information directement impliqués dans la production (PLM, ERP et MES) a été proposée. Cette architecture nous a menés à deux sous-problématiques complémentaires qui sont respectivement la construction d'une architecture basée sur des Web Services permettant d'améliorer l'accessibilité, la sécurité et la complétude des données échangées, et la construction d'une architecture d'intégration, basée sur les ontologies, permettant d'offrir des mécanismes d'intégration basés sur la sémantique dans le but d'assurer la bonne interprétation des données échangées.Enfin, la maquette de l'outil logiciel supportant la solution proposée et permettant d'assurer l'intégration des données échangées entre ingénierie et production a été réalisée
The research work contributes to improve the quality of data exchanged between the production and the engineering units which dedicated to product design and production system design. This improvement is qualified by studying the interactions between the product life cycle management and the production management. These two concepts are supported, wholly or partly by industrial information systems, the study of the interactions then lead to the integration of information systems (PLM, ERP and MES).In a highly competitive environment and globalization, companies are forced to innovate and reduce costs, especially the production costs. Facing with these challenges, the volume and frequency change of production data are increasing due to the steady reduction of the lifetime and the products marketing, the increasing of product customization and the generalization of continuous improvement in production. Consequently, the need to formalize and manage all production data is required. These data should be provided to the production operators and machines.After analysis the data quality for each existing architecture demonstrating the inability to address this problem, an architecture, based on the integration of three information systems involved in the production (PLM, ERP and MES) has been proposed. This architecture leads to two complementary sub-problems. The first one is the development of an architecture based on Web services to improve the accessibility, safety and completeness of data exchanged. The second is the integration architecture of integration based on ontologies to offer the integration mechanisms based on the semantics in order to ensure the correct interpretation of the data exchanged. Therefore, the model of the software tool supports the proposed solution and ensures that integration of data exchanged between engineering and production was carried out
9

Michel, Pierre. "Sélection d'items en classification non supervisée et questionnaires informatisés adaptatifs : applications à des données de qualité de vie liée à la santé." Thesis, Aix-Marseille, 2016. http://www.theses.fr/2016AIXM4097/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Un questionnaire adaptatif fournit une mesure valide de la qualité de vie des patients et réduit le nombre d'items à remplir. Cette approche est dépendante des modèles utilisés, basés sur des hypothèses parfois non vérifiables. Nous proposons une approche alternative basée sur les arbres de décision. Cette approche n'est basée sur aucune hypothèse et requiert moins de temps de calcul pour l'administration des items. Nous présentons différentes simulations qui démontrent la pertinence de notre approche. Nous présentons une méthode de classification non supervisée appelée CUBT. CUBT comprend trois étapes pour obtenir une partition optimale d'un jeu de données. La première étape construit un arbre en divisant récursivement le jeu de données. La deuxième étape regroupe les paires de noeuds terminaux de l'arbre. La troisième étape agrège des nœuds terminaux qui ne sont pas issus de la même division. Différentes simulations sont présentés pour comparer CUBT avec d'autres approches. Nous définissons également des heuristiques concernant le choix des paramètres de CUBT. CUBT identifie les variables qui sont actives dans la construction de l'arbre. Cependant, bien que certaines variables peuvent être sans importance, elles peuvent être compétitives pour les variables actives. Il est essentiel de classer les variables en fonction d'un score d'importance pour déterminer leur pertinence dans un modèle donné. Nous présentons une méthode pour mesurer l'importance des variables basée sur CUBT et les divisions binaires compétitives pour définir un score d'importance des variables. Nous analysons l'efficacité et la stabilité de ce nouvel indice, en le comparant à d'autres méthodes
An adaptive test provides a valid measure of quality of life of patients and reduces the number of items to be filled. This approach is dependent on the models used, sometimes based on unverifiable assumptions. We propose an alternative approach based on decision trees. This approach is not based on any assumptions and requires less calculation time for item administration. We present different simulations that demonstrate the relevance of our approach.We present an unsupervised classification method called CUBT. CUBT includes three steps to obtain an optimal partition of a data set. The first step grows a tree by recursively dividing the data set. The second step groups together the pairs of terminal nodes of the tree. The third step aggregates terminal nodes that do not come from the same split. Different simulations are presented to compare CUBT with other approaches. We also define heuristics for the choice of CUBT parameters.CUBT identifies the variables that are active in the construction of the tree. However, although some variables may be irrelevant, they may be competitive for the active variables. It is essential to rank the variables according to an importance score to determine their relevance in a given model. We present a method to measure the importance of variables based on CUBT and competitive binary splis to define a score of variable importance. We analyze the efficiency and stability of this new index, comparing it with other methods
10

Guemeida, Abdelbasset. "Contributions à une nouvelle approche de Recherche d'Information basée sur la métaphore de l'impédance et illustrée sur le domaine de la santé." Phd thesis, Université Paris-Est, 2009. http://tel.archives-ouvertes.fr/tel-00581322.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les récentes évolutions dans les technologies de l'information et de la communication, avec le développement de l'Internet, conduisent à l'explosion des volumes des sources de données. Des nouveaux besoins en recherche d'information émergent pour traiter l'information en relation aux contextes d'utilisation, augmenter la pertinence des réponses et l'usabilité des résultats produits, ainsi que les possibles corrélations entre sources de données, en rendant transparentes leurs hétérogénéités. Les travaux de recherche présentés dans ce mémoire apportent des contributions à la conception d'une Nouvelle Approche de Recherche d'Information (NARI) pour la prise de décision. NARI vise à opérer sur des grandes masses de données cataloguées, hétérogènes, qui peuvent être géo référencées. Elle est basée sur des exigences préliminaires de qualité (standardisation, réglementations), exprimées par les utilisateurs, représentées et gérées à l'aide des métadonnées. Ces exigences conduisent à pallier le manque de données ou leur insuffisante qualité, pour produire une information de qualité suffisante par rapport aux besoins décisionnels. En utilisant la perspective des utilisateurs, on identifie et/ou on prépare des sources de données, avant de procéder à l'étape d'intégration des contenus. L'originalité de NARI réside dans la métaphore de l'écart d'impédance (phénomène classique lorsque on cherche à connecter deux systèmes physiques hétérogènes). Cette métaphore, dont R. Jeansoulin est à l'origine, ainsi que l'attention portée au cadre réglementaire, en guident la conception. NARI est structurée par la dimension géographique (prise en compte de divers niveaux de territoires, corrélations entre plusieurs thématiques) : des techniques d'analyse spatiale supportent des tâches de la recherche d'information, réalisées souvent implicitement par les décideurs. Elle s'appuie sur des techniques d'intégration de données (médiation, entrepôts de données), des langages de représentation des connaissances et des technologies et outils relevant du Web sémantique, pour supporter la montée en charge, la généralisation et la robustesse théorique de l'approche. NARI est illustrée sur des exemples relevant de la santé

Books on the topic "Qualité des données et des informations":

1

Institut canadien d'information sur la santé., ed. Processus d'assurance de la qualité relatifs à la Base de données sur les congés des patients et à la Base de données sur la morbidité hospitalière. Ottawa, Ont: Institut canadien d'information sur la santé, 2002.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
2

Canada. Ministère de l'environnement. Direction générale des eaux intérieures et des terres. Système Informatisé de Saisie et de Gestion de Données D'analyse de la Qualité de L'eau en Laboratoire (Awqualabs). S.l: s.n, 1987.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
3

Organisation for economic co-operation and development. Evaluation et processus de décision dans l'enseignement supérieur: Expériences en Allemagne, Espagne et France. Paris: OCDE, 1994.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
4

Yana, Simon David. Les coûts liés aux besoins particuliers des personnes ayant des incapacités: Contraintes et limites d'une estimation du sous-financement à partir des données d'enquêtes et des informations administratives existantes. Drummondville, Québec: Office des personnes handicapées du Québec, [2008], 2008.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
5

terres, Canada Ministère de l'environnement Direction générale des eaux intérieures et des. Expérience Acquise Durant la Conception, L'élaboration et la Mise en Application D'un Système Informatisé de Saisie et de Gestion de Données Pour un Laboratoire D'analyse de la Qualité de L'eau. S.l: s.n, 1987.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
6

Standardization, International Organization for. Space data and information transfer systems--: Open archival information system-- reference model = Syst`emes de transfert des informations et données spatiales-- système ouvert d'archivage de l'information-- modèle de référence. Geneva: ISO, 2003.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
7

Canada, Canada Foreign Affairs. Transnational crime : agreement between the government of Canada and the European Community on the processing of advance passenger information and passenger name record data, Luxembourg, 3 October 2005, in force 22 March 2006 =: Criminalité transnationale : accord entre le gouvernement du Canada et la Communauté européenne sur le traitement des données relatives aux informations préalable sur les voyageurs et aux dossiers passagers, Luxembourg, le 3 octobre 2005, en vigueur le 22 mars 2006. Ottawa, Ont: Public Works and Government Services Canada = Travaux publics et services gouvernementaux Canada, 2007.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
8

Mamba, Sukul. Registre Sanitaire des Eaux de Piscine: Conforme Au Code de la Santé Publique. Permet le Contrôle Quotidien des Informations Relatives à la Qualité et Au Traitement de l'Eau de la Piscine. Simple et Facile à Remplir. Independently Published, 2021.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
9

carnet, Joli. Mon Carnet de Rêves : De Gratitude : Cahier de Traçabilité à Remplir, Vous Pourrez Noter Plusieurs Informations : Qualité de Votre Sommeil, Songe, de Reconnaissance, et de Remerciement, Idéal Pour Votre Bien-être à Noter Tout les Jours: GRAND Format. Independently Published, 2021.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
10

Recommandations pour l’établissement d’un système national de surveillance de la morbidité maternelle extrêmement grave en Amérique latine et aux Caraïbes. Pan American Health Organization, 2022. http://dx.doi.org/10.37774/9789275223918.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
D’un point de vue physiopathologique, la mort est le résultat final d’un large éventail de complications qui mènent à une dysfonction multi-organique. Cependant il existe un groupe de femmes qui survivent en dépit de la gravité de leur tableau clinique, et ce résultat dépend principalement de la qualité des services de soins de santé prodigués par un pays ou un établissement. La présente publication propose un système de surveillance épidémiologique de l’indicateur de morbidité maternelle extrêmement grave (MMEG) qui permet d’estimer la morbidité liée aux maladies et complications apparues au cours de la grossesse, de l’accouchement ou du post-partum. Elle fournit aussi des informations plus complètes sur les cas de mort maternelle évitable, prend compte certains aspects de la sécurité de la patiente et aide à mieux détecter les lacunes des systèmes de soins. Cet ouvrage s’inscrit dans l’objectif plus large de l’Organisation panaméricaine de la Santé qui est de réduire la mortalité maternelle et de renforcer la surveillance épidémiologique de la santé maternelle à l’échelon national. Pour les autorités de santé des pays, cet outil représente un système d’identification, de collecte, de traitement et d’analyse active des informations liées à la MMEG, et il peut également être utile aux prestataires et gestionnaires des services de santé locaux et régionaux.

Book chapters on the topic "Qualité des données et des informations":

1

Campillo-Gimenez, Boris, Marc Cuggia, Anita Burgun, and Pierre Le Beux. "La qualité des données médicales dans les dossiers patient de deux services d’accueil des urgences avant et après informatisation." In Informatique et Santé, 331–42. Paris: Springer Paris, 2011. http://dx.doi.org/10.1007/978-2-8178-0285-5_29.

Full text
APA, Harvard, Vancouver, ISO, and other styles
2

FLEURY SOARES, Gustavo, and Induraj PUDHUPATTU RAMAMURTHY. "Comparaison de modèles d’apprentissage automatique et d’apprentissage profond." In Optimisation et apprentissage, 153–71. ISTE Group, 2023. http://dx.doi.org/10.51926/iste.9071.ch6.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Pour réaliser un audit, l'utilisation de toutes les informations disponibles relatives à l'univers ou au sujet de l'audit pourrait améliorer la qualité des résultats. La classification des documents textuels de l'audit pourrait permettre l'utilisation d'informations supplémentaires pour améliorer les données structurées existantes, ce qui conduirait à une meilleure connaissance pour soutenir le processus d'audit. Nous avons appliqué cette démarche au traitement du langage naturel.
3

Lafourcade, Mathieu, and Nathalie Lebrun. "Vers un réseau lexico-sémantique de grande taille obtenu par crowdsourcing." In Le Crowdsourcing, 75–94. Editions des archives contemporaines, 2021. http://dx.doi.org/10.17184/eac.3913.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Le projet JeuxDeMots vise à construire une grande base de connaissances de sens commun (et de spécialité), en français, à l’aide de jeux (GWAPs – Games With A Purpose), d’approches contributives, mais également de mécanismes d’inférences. Une dizaine de jeux ont été conçus dans le cadre du projet, chacun permettant de collecter des informations spécifiques, ou de vérifier la qualité de données acquises via un autre jeu. Cet article s’attachera à décrire la nature des données que nous avons collectées et construites, depuis le lancement du projet durant l’été 2007. Nous décrirons en particulier les aspects suivants : la structure du réseau lexical et sémantique JeuxDeMots, certains types de relations (sémantiques, ontologiques, subjectives, rôles sémantiques, associations d’idées, etc.), les questions d’activation et d’inhibition, l’annotation de relations (méta-informations), les raffinements sémantiques (gestion de la polysémie), la création de termes agglomérés permettant la représentation de connaissances plus riches (relations à n-arguments).
4

Aebi, Carol. "Recherches sur la Sustainability." In Recherches sur la Sustainability, 295–309. EMS Editions, 2023. http://dx.doi.org/10.3917/ems.cheva.2023.01.0295.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La durabilité sociale pourrait, un jour, être le fruit d’une interaction entre l’homme et le cyberespace. Un réseau de systèmes d’information pour la durabilité est un instrument qui collecte, connecte et partage des données à travers la société. Un tel réseau de systèmes d’information, conçu pour différencier les données relatives à diverses parties prenantes en fonction du moment et de l’échelle, est encore inexistant. Cependant, des projets, des modèles et des collaborations sont en cours, réunissant les entreprises et les universités pour faire avancer cette cause. Les principaux problèmes liés à la complexité de la société et au manque d’ensembles de données de qualité, résultats de méthodes d’évaluation contradictoires et de variations de terminologie dans les domaines scientifiques, appellent des travaux de recherches supplémentaires avant que des systèmes d’information puissent être développés de manière efficace. L’harmonisation des évaluations, des mesures et des outils de mesure de la valeur sociale est une première étape vers l’introduction d’un modèle qui servira de guide aux parties prenantes pour discuter, et aux ingénieurs en informatique pour développer, tester, mettre en œuvre et améliorer les technologies qui interagiront, fonctionneront et penseront conformément aux attentes de la société en termes de durabilité. Les universitaires et les décideurs politiques font converger la recherche empirique et les réformes. Le Mécanisme de Facilitation Technologique (MFT) de l’Organisation des Nations unies (ONU) favorise la collaboration entre les différentes parties prenantes et les États membres. Le cadre des systèmes socio-écologiques (SES) permet aux chercheurs de différentes disciplines, secteurs ou zones géographiques d’élaborer et de tester des théories et des modèles avec un vocabulaire commun dans des contextes empiriques différents. Un concept d’écosystème numérique stigmergique en est aux premiers stades de la modélisation pour faciliter l’auto-organisation des processus. Des recherches récentes ont étudié les exigences sociétales d’un réseau de système d’information stigmergique (SIS) pour la durabilité sociale. Les technologies distribuées sans échelle et le supercalculateur, l’intégration des ensembles de données et l’agrégation des informations pourraient, un jour, guider les entreprises et les décideurs vers des activités susceptibles de résoudre les problèmes sociaux.
5

"Données, informations et suivi." In Rapport mondial des Nations Unies sur la mise en valeur des ressources en eau, 165–73. United Nations, 2023. http://dx.doi.org/10.18356/9789210026215c018.

Full text
APA, Harvard, Vancouver, ISO, and other styles
6

Akoka, Jacky. "Chapitre 1. Covid-19 : qualité des données et données de qualité." In Crise de la connaissance et connaissance de la crise, 23–31. EMS Editions, 2022. http://dx.doi.org/10.3917/ems.cappe.2022.01.0023.

Full text
APA, Harvard, Vancouver, ISO, and other styles
7

REBOUILLAT, Violaine, and Joachim SCHÖPFEL. "Le dispositif d’entrepôt de données de recherche." In Partage et valorisation des données de la recherche, 7–37. ISTE Group, 2023. http://dx.doi.org/10.51926/iste.9073.ch1.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Qu’est-ce qu’un entrepôt de données de recherche ou, en anglais, un research data repository ? D’où vient ce terme ? Comment décrire ce dispositif ? Le premier chapitre essaie de répondre à toutes ces questions, même si le paysage des entrepôts est caractérisé par une grande variété et hétérogénéité. La question de la confiance est au cœur du développement des entrepôts de données de recherche – confiance aussi bien dans le contenu que dans la qualité du dispositif. Etroitement lié à la question de la confiance est l’enjeu de la certification des entrepôts.
8

SCHÖPFEL, Joachim. "Le paysage des entrepôts de données de recherche en France." In Partage et valorisation des données de la recherche, 39–55. ISTE Group, 2023. http://dx.doi.org/10.51926/iste.9073.ch2.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Combien existe-t-il d’entrepôts de données de recherche en France ? Ce chapitre essaie de fournir une réponse à cette question, avec une analyse de la typologie des entrepôts, de leurs domaines scientifiques et de leur qualité. Mais en fait, que veut dire « en France » dans un paysage fortement internationalisé ?
9

GASCUEL, Olivier, and Frédéric LEMOINE. "Phylogénétique : quelles mesures de support pour les branches d’un arbre ?" In Modèles et méthodes pour l’évolution biologique, 223–46. ISTE Group, 2022. http://dx.doi.org/10.51926/iste.9069.ch9.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La reconstruction phylogénétique repose sur l'analyse d'une quantité finie de données qui fournissent parfois des informations contradictoires. Quantifier l'incertitude inhérente à l'estimation d'arbres de l'évolution est donc une tâche primordiale. L'approche statistique fournit ici des outils pertinents permettant de distinguer les parties fiables des régions fragiles de ces arbres.
10

Mangeot, Mathieu, and Mutsuko Tomokiyo. "Contributions et corrections dans le dictionnaire japonais-français jibiki.fr." In Lexique(s) et genre(s) textuel(s) : approches sur corpus, 259–70. Editions des archives contemporaines, 2020. http://dx.doi.org/10.17184/eac.2922.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Concernant le couple de langues français-japonais, les ressources disponibles sur le Web sont peu nombreuses et de taille modeste. Il existe cependant de nombreux dictionnaire imprimés de qualité et à large couverture. C’est pourquoi nous avons lancé le projet jibiki.fr de construction d’un dictionnaire japonais-français de qualité et à large couverture à partir de récupération de données issues du dictionnaire de Jean-Baptiste Cesselin (1940) que nous avons numérisé et lu optiquement. Nous avons complété ces données par d’autres issues du dictionnaire JMdict de Jim Breen (2004) et de Wikipedia pour pallier le manque de vocabulaire récent. Nous avons ensuite installé ces données sur une plateforme de gestion de ressources lexicales en ligne. Les utilisateurs peuvent alors consulter le dictionnaire et corriger les erreurs qu’ils trouvent lors de la consultation. La plateforme possède également une interface de programmation (API) qui permet de programmer des scripts afin de corriger automatiquement certains phénomènes repérés lors de consultations. La ressource ainsi construite est disponible en téléchargement libre de droits. Cet article décrit certaines techniques de correction automatique et manuelle à l’issue des 3 ans et demi du projet.

Conference papers on the topic "Qualité des données et des informations":

1

Elmoutawakkil, N., S. Bouzoubaa, S. Bellemkhannate, and I. Benyahya. "Flux de travail du guidage tridimensionnel en chirurgie orale." In 66ème Congrès de la SFCO. Les Ulis, France: EDP Sciences, 2020. http://dx.doi.org/10.1051/sfco/20206602005.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
L’implantologie assistée par ordinateur permet de sécuriser le geste, de prévoir les potentielles complications, d’anticiper la séquence de forage et le choix de l’implant et donne la possibilité d’avoir une transition entre la simulation et la chirurgie à l’aide d’un guide chirurgical, elle est utilisée pour faciliter l’établissement d’un diagnostic précis et du plan de traitement idéal[1]. Dès que les images radiologiques (sous format DICOM) sont acquises suite à la réalisation d’une tomodensitométrie ou d’un cône-beam, elles sont transférées dans un logiciel de planification qui permettra la transformation des vues bidimensionnelles en une vision tridimensionnelle, pour évaluer la quantité et la qualité du volume osseux disponible et réaliser une représentation colorée et tridimensionnelle des éléments anatomiques présents sur les coupes dans le but de réaliser une simulation implantaire, Une fois placé, l’implant est visualisé immédiatement dans les trois plans de lespace, ensuite le praticien peut anticiper les caractéristiques du pilier, l’axe prothétique, et simuler l’épaisseur de la gencive. Ainsi un guide chirurgical à appui dentaire, muqueux ou osseux est conçu, à sa réception du guide, le fabricant fournit une feuille de route correspondant au système implantaire et à la trousse chirurgicale utilisée. Elle contient toutes les informations pour chaque implant et peut être complété par des cuillères et des porte-implants individualisés.Les résultats montrent que les écarts entre la réalité clinique et la planification émanent du type d’appui du guide. Un bio-modèle peut être imprimé en 3D, il servira comme outil pédagogique pour expliquer au patient le déroulement du projet et permettra également de réaliser une chirurgie « sèche » en amont de la pose d’implant ; et dans le cas de régénération osseuse guidée utilisant des grilles en titane il servira de support pour les préformer dans l’asepsie totale [2]. Les prothèses provisoires immédiates sont également réalisées au besoin, grâce à la superposition de la conception tridimensionnelle implantaire au modèle du patient scanné optiquement éviteant les erreurs de conception des prothèses immédiates. En oncologie buccale, la planification assistée permettra en segmentant la tumeur, de visualiser ses marges et sa taille, de réaliser un guide de résection et de customiser les plaques et les treillis imprimés en 3D. L’avènement de la conception et de la fabrication assistée par ordinateur a permis de révolutionner la chirurgie orale et de supprimer les erreurs opérateur dépendant en codifiant les actes, le travail présenté vise à décrire les différentes étapes du flux de travail optimal à adopter en chirurgie orale, permettant la réalisation de chirurgie totalement assistée, la conception et la fabrication de différents guides de forage et de résection osseuse ainsi que des prothèses provisoires immédiates [3].
2

GILOY, Nathalie, Claire-Marie DULUC, Roberto FRAU, Yann FERRET, Thomas BULTEAU, Franck MAZAS, and Thierry SAUZEAU. "La base de données TEMPETES : un support pour une expertise collégiale et interdisciplinaire des informations historiques de tempêtes et de submersions." In Journées Nationales Génie Côtier - Génie Civil. Editions Paralia, 2018. http://dx.doi.org/10.5150/jngcgc.2018.093.

Full text
APA, Harvard, Vancouver, ISO, and other styles

Reports on the topic "Qualité des données et des informations":

1

Tea, Céline. REX et données subjectives: quel système d'information pour la gestion des risques? Fondation pour une culture de sécurité industrielle, April 2012. http://dx.doi.org/10.57071/170rex.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Le retour d’expérience est conçu, dans une vision classique, comme une démarche de gestion mettant à disposition les informations nécessaires aux managers pour piloter les systèmes et gérer les risques. Malheureusement, la réalité est moins simple. Les systèmes à piloter sont des systèmes socio-techniques complexes. Le futur n’est pas déterminé par le passé. Il s’avère nécessaire de compléter le système d’information supportant la gestion des risques. Le travail présenté propose de passer d’un système fondé sur des informations extraites des expériences incidentelles du système à piloter, vers un système d’information qui intègre au mieux l’expérience des gens qui le font fonctionner. Les connaissances tacites de ces personnes expérimentées doivent alors être élicitées. Le présent travail a permis d’expérimenter au sein de la SNCF une technique d’aide à la décision issue du courant de l’analyse de la décision. Cette technique de MAUT a été appliquée à l’analyse d’un changement de réglementation concernant la conduite des trains en cas d’alerte radio. Les décisions sont traitées ici non sous un angle individuel, mais comme l’aboutissement d’un processus construit au sein d’une organisation, mettant en jeu plusieurs décideurs et plusieurs enjeux (pouvant être partiellement contradictoires). L’apport de cette technique par rapport aux méthodes classiques basées sur les arbres de défaillance est discuté. Un second niveau d’étude de l’impact de cet éventuel changement réglementaire a consisté à analyser en profondeur les raisonnements et les connaissances utilisés par les acteurs pour construire le sens de leur action en cas d’alerte radio. En modélisant les discussions entre les différents acteurs impliqués et en restituant leur point de vue en situation, il est possible d’identifier les divergences éventuelles entre les représentations de différents acteurs concernant une même situation, ainsi qu’un possible écart entre les croyances des concepteurs et les utilisateurs de la règle. Cette seconde analyse s’appuie sur une théorie de la conception dite C/K, qui met en relation les connaissances et les concepts utilisés en situation. L’auteur suggère que l’application de ces méthodes permet de voir l’analyse de risques comme un lieu d’élaboration de sens collectif sur la sécurité du système, plutôt que (dans une vision plus positiviste de la connaissance) comme une activité qui révèle et approche la vérité sur les risques, en s’appuyant sur des données factuelles et objectives. Elle propose de développer l’ingénierie du subjectif pour permettre la construction d’un système de management au sein duquel la vision d’ingénieur de la gestion des risques et la vision inspirée des courants des sciences humaines et sociales pourront cohabiter.
2

Kaboré, Gisele, and Idrissa Kabore. Analyse secondaire des données de l'analyse situationnelle des services de santé de la reproduction. Population Council, 2009. http://dx.doi.org/10.31899/pgy20.1000.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
En début 2002, l’UNFPA a soutenu un projet intitulé Renforcement des services sanitaires et sociaux pour faire face aux besoins de santé sexuelle et reproductive des adolescentes. Le projet avait pour objectif d’améliorer la connaissance des adolescentes mariées en ce qui concerne la législation et leurs propres droits; les éduquer à prendre soin de leur propre santé et de celle de leurs enfants; et augmenter leur accessibilité aux services de santé reproductive, particulièrement dans les régions les plus pauvres du Burkina Faso. Le projet a affirmé que les normes de fonctionnement ne sont pas remplies en termes d’infrastructures, d’équipement, de matériel et de ressources humaines. Les services disponibles ne sont pas bien connus par les populations, ce qui peut limiter la fréquentation. Il apparaît aussi que les services offerts aux adolescents ne sont pas assez développés car peu de prestataires ont des compétences nécessaires. Quelques recommandations ont été formulées en réponses aux problèmes et aux insuffisances constatées, sur la capacité d’offre et la qualité des services.
3

Bourassa Forcier, Mélanie, Derek Dumont, and Hugo Prevosto. Les résidences privées pour aînés (RPA) au Québec : enjeux et opportunités. CIRANO, May 2024. http://dx.doi.org/10.54932/juaj9460.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Au Québec, la pandémie de COVID-19 a mis l’accent sur la situation précaire dans laquelle se trouvent les milieux de vie pour personnes aînées, en particulier celle qui prévaut en centre d’hébergement et de soins de longue durée (CHSLD), en ressources intermédiaires et ressources de type familial (RI-RTF) ainsi qu’en résidences privées pour aînés (RPA). Dans ce rapport, les auteurs s’intéressent aux différents modèles de RPA ainsi qu’aux enjeux qui mettent en péril l’accessibilité à un logement ou à des services en RPA, la qualité de ces services et la survie même de certains modèles de RPA. L’étude s’appuie sur un vaste ensemble de données et d’informations incluant des entrevues et sondages réalisés auprès de gestionnaires, de membres du personnel et de résidents de RPA, et des données statistiques sur les RPA obtenues à la suite de demandes d’accès à l’information effectuées auprès du MSSS et de l’ensemble des CISSS/CIUSSS. Les auteurs concluent que la lourdeur administrative et réglementaire — qui s’accroit considérablement depuis les dernières années — est directement liée aux enjeux présents dans l’offre de services en RPA au Québec et à la fermeture de certaines RPA, en particulier les petites RPA.
4

Dietiker, B., A. J. M. Pugin, H. L. Crow, K. D. Brewer, and H. A. J. Russell. Seismic survey results from a buried valley study, Elora and Guelph, Ontario. Natural Resources Canada/CMSS/Information Management, 2024. http://dx.doi.org/10.4095/pd24sxky79.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les vallées enfouies constituent un type d'aquifère important dans le paysage glaciaire du Canada. En raison de l'histoire complexe de l'érosion et du remplissage, il peut être difficile de définir la géométrie de la vallée et les caractéristiques des sédiments. Des transects sismiques de deux vallées enfouies précédemment identifiées ont été acquis en Ontario à l'Arboretum de l'Université de Guelph et dans un environnement périurbain au sud de la ville voisine d'Elora. Une étude de sismique réflexion à haute résolution a permis de recueillir trois kilomètres linéaires de données le long de quatre transects. Cette étude a été complétée par une étude microtremor HVSR (rapport spectral horizontal/vertical) le long des profils de réflexion. L'objectif de l'étude globale était d'améliorer la résolution des géométries des vallées et des caractéristiques des sédiments. Un autre objectif était de tester la capacité de la méthode HVSR à fournir des informations de reconnaissance sur la présence de vallées enfouies dans une zone à la lithostratigraphie complexe. Les deux méthodes sismiques ont permis de délimiter les vallées enfouies. Trois des quatre transects de réflexion sismique ont permis d'imager les vallées enfouies qui mesurent environ 200 m de large et 30 à 65 m de profondeur. Les vallées ont des côtés asymétriques abrupts avec un caractère en escalier à un endroit. Les levés HVSR ont permis d'imager la surface du substratum rocheux ainsi qu'une unité de haute résonance moins profonde qui correspond à une unité de till. La méthode s'est avérée efficace en tant que technique de reconnaissance lorsque des contraintes géologiques sont disponibles. Ce rapport contient trois annexes avec des données, des informations de traitement et des images interprétées.
5

Meunier, Valérie, and Eric Marsden. Analyse coût-bénéfices: guide méthodologique. Fondation pour une culture de sécurité industrielle, December 2009. http://dx.doi.org/10.57071/492acb.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La gestion des risques industriels soulève de nombreuses questions auxquelles on ne peut pas répondre par un simple «oui» ou «non»: (1) quels critères la société devrait-elle utiliser pour décider que les risques d'une installation industrielle ont été réduits aussi bas que raisonnablement praticable? (2) comment arbitrer entre des considérations qui relèvent de «dimensions» différentes: morts et blessés potentiels en cas d'accident industriel, impacts potentiels sur l'environnement, enjeux financiers, développement de l'emploi, déménagements forcés en cas d'expropriation d'habitations, etc. et ayant des impacts sur de multiples parties prenantes (riverains des installations industrielles, exploitants et employés des sites, élus locaux et régionaux, etc.)? L'analyse coût-bénéfices (ACB) est un outil d'aide à la décision qui peut faciliter la discussion entre parties prenantes. Elle fournit un cadre structuré permettant de présenter l'ensemble des éléments de la décision et discuter de leur pondération respective, favorisant ainsi la transparence du processus décisionnel. Cet outil est largement utilisé dans les pays anglo-saxons en matière de réglementation environnementale et de décisions concernant la sécurité industrielle. Le présent document vise à aider des analystes qui souhaiteraient conduire une ACB d'un projet d'investissement en matière de sécurité ou une analyse d'impact d'une réglementation liée à la prévention. Il vise également à éclairer les lecteurs de telles études et les aider à évaluer la qualité de l'analyse. Le document présente les concepts économiques qui sous-tendent l'ACB, et décrit les principales étapes pratiques d'une étude. Il fournit des indications sur les sources de données permettant de monétiser différentes conséquences hors-marché de l'activité industrielle (impact sur la santé et la sécurité des personnes, pollutions environnementales et nuisances sonores). Le document propose également une check-list des questions qu'il peut être utile de se poser lors de la lecture critique d'une étude ACB.
6

Goerzen, C., H. Kao, R. Visser, R. M. H. Dokht, and S. Venables. A comprehensive earthquake catalogue for northeastern British Columbia, 2021 and 2022. Natural Resources Canada/CMSS/Information Management, 2024. http://dx.doi.org/10.4095/332532.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Ce rapport de fichier ouvert présente les résultats de la surveillance sismique globale menée dans le nord-est de la Colombie-Britannique (NE BC) en 2021 et 2022. L'effort de surveillance englobe deux zones primaires d'observation sismique : la zone de surveillance etd'atténuation sismique de Kiskatinaw (KSMMA) et la zone de condition de permis de surveillance du mouvement du sol (GMMPCA), chacune étant caractérisée par des opérations pétrolières et gazières différentes, ainsi que par des densités de population. Un flux de travail de pointe basé surl'apprentissage automatique a été utilisé pour la détection des tremblements de terre et la détermination des phases. Une étape de révision manuelle a été incluse pour garantir la qualité de toutes les détections et localisations de tremblements de terre. Du 1er janvier 2021 au 31 décembre 2022, untotal de 9655 événements sismiques ont été détectés, avec un taux mensuel moyen de 420 événements. Le KSMMA a enregistré 8468 événements au cours de cette période, caractérisés par un regroupement serré, tandis que le GMMPCA a enregistré 899 événements. Des variations dans les taux de sismicité ontété observées par rapport aux rapports précédents, potentiellement influencées par des changements dans les activités industrielles et les capacités de surveillance sismique. L'ampleur de l'exhaustivité pour le KSMMA est passée à 1,01, reflétant les changements dans le réseau de surveillancesismique, tandis que le GMMPCA a affiché une ampleur de l'exhaustivité de 1,45, légèrement supérieure à celle de la période de rapport précédente. Ce rapport souligne la nature dynamique de la sismicité induite dans le nord-est de la Colombie-Britannique, en insistant sur la nécessité d'unesurveillance continue, de mesures d'atténuation adaptatives et d'une collecte robuste de données sismiques pour éclairer la prise de décision et améliorer la préparation aux tremblements de terre.
7

Étude de faisabilité d’un service générique d’accueil et de diffusion des données simples : recueil des besoins et des contraintes des usagers. Ministère de l'enseignement supérieur et de la recherche, November 2020. http://dx.doi.org/10.52949/13.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Le document présente les besoins et contraintes des usagers concernant la création d'un entrepôt générique national, première phase de l'étude de faisabilité. Il détaille les attentes concernant l'entrepôt, reposant sur la confiance, la qualité et la responsabilité, et celles portant sur les différents types d'usagers sur un plan technique et fonctionnel.
8

Introduction à l’analyse de données avec R. Instats Inc., 2023. http://dx.doi.org/10.61700/ypko7xoekebon469.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La formmation "Introduction à l'analyse de données avec R", proposé par l'UCLouvain de l'Université catholique de Louvain, est un séminaire complet de cinq jours conçu pour doter les participants des connaissances et des compétences nécessaires à l'utilisation efficace de R pour l'analyse de données dans le domaine de la recherche universitaire. Couvrant un large éventail de sujets allant de la manipulation des données de base à l'analyse statistique, l'atelier permet aux participants de produire des recherches reproductibles de haute qualité et d'améliorer leur compétitivité pour les postes et les bourses de recherche. [b]Pour les doctorants européens, le séminaire offre 1 point ECTS équivalent.
9

Introduction à l’analyse de données avec R. Instats Inc., 2023. http://dx.doi.org/10.61700/o6naentazfo73469.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La formùation "Introduction à l'analyse de données avec R", proposé par l'UCLouvain de l'Université catholique de Louvain, est un séminaire complet de cinq jours conçu pour doter les participants des connaissances et des compétences nécessaires à l'utilisation efficace de R pour l'analyse de données dans le domaine de la recherche universitaire. Couvrant un large éventail de sujets allant de la manipulation des données de base à l'analyse statistique, l'atelier permet aux participants de produire des recherches reproductibles de haute qualité et d'améliorer leur compétitivité pour les postes et les bourses de recherche. Pour les doctorants européens, le séminaire offre 1 point ECTS équivalent. [b]Pour les doctorants européens, le séminaire offre 1 point ECTS équivalent.[/b][b][color=rgb(94, 94, 94)] [/color][/b]
10

Banque Interaméricaine de Développement rapport annuel 2011: Bilan de l'année. Inter-American Development Bank, March 2012. http://dx.doi.org/10.18235/0005831.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Ce rapport contient un examen des opérations de la Banque en 2011, y compris des prêts, des garanties et des subventions. Ce document aborde également les priorités du secteur, d'autres domaines clés d'intérêt ainsi que la mise en œuvre de la neuvième augmentation générale des ressources. Enfin, le présent rapport annuel contient plusieurs états financiers et annexes contenant des informations sur les opérations approuvées, les prêts en cours et d'autres données spécifiques détaillant les activités bancaires.

To the bibliography