Academic literature on the topic 'Acquisition de données long terme'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the lists of relevant articles, books, theses, conference reports, and other scholarly sources on the topic 'Acquisition de données long terme.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Journal articles on the topic "Acquisition de données long terme"

1

Catry, Thibault, and Alain Besnard. "Suivi de l'évolution de la tâche urbaine entre 2008 et 2013 à Saint-Denis de la Réunion (France) : Apports de l'imagerie satellite Pléiades." Revue Française de Photogrammétrie et de Télédétection, no. 209 (January 29, 2015): 89–94. http://dx.doi.org/10.52638/rfpt.2015.164.

Full text
Abstract:
Avec une population de plus de 800 000 habitants sur un territoire de 2500 km2, la Réunion connaît depuis une vingtaine d'années une urbanisation importante au détriment des espaces agricoles et naturels. Ce phénomène d'urbanisation s'inscrit dans une problématique plus large d'aménagement du territoire insulaire contraint où les enjeux de l'occupation de l'espace sont importants et où l'évolution de la tâche urbaine doit être suivie dans le temps. Cette étude présente les résultats préliminaires de suivi de la tâche urbaine sur la ville de Saint-Denis, obtenus à partir d'images satellite Pléaides, acquises dans le cadre de la RTU pléiades 2013, pour la période 2008-2013. Les premières cartographies réalisées montrent qu'en plus de la très haute résolution spatiale fournie par les images Pléiades, l'intérêt de ces données réside dans la répétitivité des acquisitions qui permettront dans les années à venir une mise à jour annuelle des cartes d'étalement urbain à La Réunion ainsi que la modélisation de son évolution à long terme.
APA, Harvard, Vancouver, ISO, and other styles
2

Oluwole, T. O., H. N. Okunbor, I. I. Otaigbe, A. O. Adekoya, A. O. Osinowo, O. A. Sadare, and C. J. Elikwu. "Prevalence of <i>Helicobacter pylori</i> infection among symptomatic children in a tertiary hospital in Southwestern Nigeria: a retrospective study." Research Journal of Health Sciences 13, no. 1 (March 5, 2025): 44–52. https://doi.org/10.4314/rejhs.v13i1.6.

Full text
Abstract:
Objective(s): Acquisition of the bacteria, H. pylori mainly occurs in childhood and may be a crucial factor in developing long-term H. pylori-related complications. This is especially important in developing countries where relatively high rates of H. pylori infection have been reported. Due to limited data concerning the infection in the paediatric population in this locality. This study aimed to investigate the prevalence of H. pylori infection among symptomatic children. Methodology: This was a retrospective study that involved the review of medical microbiology laboratory records to analyse H. pylori results of stool samples obtained from children with gastrointestinal symptoms suggestive of H. pyloriinfection between January 2022 and December 2023. Results: The overall prevalence of H. pylori infection among children in this study was 30.7% (116/378) with a peak prevalence of 15.3% among the age group > 16 years. The prevalence of infection was associated with age (p=0.035). The prevalence was also higher among females (23.3%) than males but not statistically significant. Conclusion: Our study shows a high prevalence of H. pylori infection which increased with age and was highest among children >16 years. French title: Prévalence de l'infection à Helicobacter pylori chez les enfants symptomatiques dans un hôpital tertiaire du sud-ouest du Nigéria : une étude rétrospectiveObjectif de l' étude: L'acquisition de la bactérie H. pylori survient principalement dans l'enfance et peut être un facteur crucial dans le développement de complications à long terme liées à H. pylori. Cela est particulièrement important dans les pays en développement où des taux relativement élevés d'infection à H. pylori ont été signalés. En raison du manque de données concernant l'infection dans la population pédiatrique de cette localité, cette étude visait à étudier la prévalence de l'infection à H. pylori chez les enfants symptomatiques. Méthode de l'étude: Il s'agissait d'une étude rétrospective qui impliquait l'examen des dossiers du laboratoire de microbiologie médicale pour analyser les résultats de H. pylori dans des échantillons de selles obtenus auprès d'enfants présentant des symptômes gastro-intestinaux suggérant une infection à H. pylori entre janvier 2022 et décembre 2023. Résultats de l'étude: La prévalence globale de l'infection à H. pylori chez les enfants de cette étude était de 30,7 % (116/378) avec un pic de prévalence de 15,3 % dans la tranche d'âge > 16 ans. La prévalence de l'infection était associée à l'âge (p = 0,035). La prévalence était également plus élevée chez les femmes (23,3 %) que chez les hommes, mais pas statistiquement significative. Conclusion: Notre étude montre une prévalence élevée de l'infection à H. pylori qui augmente avec l'âge et est la plus élevée chez les enfants de plus de 16 ans.
APA, Harvard, Vancouver, ISO, and other styles
3

Moizard-Lanvin, Justyna. "Beaucoup de données, peu d’action." Revue Projet 403, no. 6 (November 29, 2024): 14–18. https://doi.org/10.3917/pro.403.0014.

Full text
Abstract:
La pollution de l’air reste un problème de santé publique majeur, malgré des décennies d’accumulation de connaissances scientifiques. Pourtant, l’inertie des politiques nationales contribuent à la persistance du problème sur le long terme. Exemple à Paris.
APA, Harvard, Vancouver, ISO, and other styles
4

Perrella, Andrea M. L. "Long-Term Economic Hardship and Non-Mainstream Voting in Canada." Canadian Journal of Political Science 38, no. 2 (June 2005): 335–57. http://dx.doi.org/10.1017/s0008423905040242.

Full text
Abstract:
Abstract. Canadian voting behaviour from 1979 to 2000 is examined by relating long-term economic changes to support for “non-mainstream” parties, defined as parties other than the Liberals or Progressive Conservatives. This long-term perspective is unique, in that standard economic voting research focuses mostly on how short-term economic changes affect support levels for the incumbent. In order to illustrate the effects of long-term economic decline, federal voting results are related with short- and long-term economic data, namely unemployment and labour-force participation rates, all aggregated at the provincial level. The pooled data produces results that confirm the relevance of short-term changes to explain support for the incumbent party, while support for non-mainstream parties is, instead, explained by long-term economic changes.Résumé. Cet article examine le comportement électoral des Canadiens de 1979 à 2000 en reliant les changements économiques à long terme à l'appui accordé aux partis “ non dominants ”, à savoir les partis autres que les libéraux et les conservateurs. Cette perspective à long terme est unique en son genre car les recherches standard sur le vote économique étudient surtout le retentissement des changements économiques à court terme sur l'appui au parti sortant. Pour illustrer les effets du déclin économique à long terme, nous avons relié les résultats des élections fédérales aux données économiques à court et à long terme, notamment les taux de chômage et de participation de la population active, calculés à l'échelon provincial. Les données agrégées donnent des résultats qui confirment la pertinence des changements à court terme pour expliquer l'appui au parti sortant, tandis que le soutien aux partis “ non dominants ” s'explique au contraire par les changements économiques à long terme.
APA, Harvard, Vancouver, ISO, and other styles
5

Sauvanet, J. P. "Exénatide (Byetta®) : nouvelles données d’utilisation à long terme." Médecine des Maladies Métaboliques 4, no. 4 (September 2010): 496. http://dx.doi.org/10.1016/s1957-2557(10)70112-7.

Full text
APA, Harvard, Vancouver, ISO, and other styles
6

High, Steven, and Françoise McNeil. "« Au-delà du syndrome de la ‘‘citation payante’’ » : les archives vivantes et la recherche réciproque en histoire orale1." Dossier thématique 69, no. 1-2 (January 19, 2016): 137–63. http://dx.doi.org/10.7202/1034592ar.

Full text
Abstract:
Les organismes subventionnaires nord-américains et européens se sont engagés à promouvoir une culture de partage des données qualitatives et ce changement de perspective a suscité des controverses dans certaines disciplines, en particulier dans les cas où la propriété intellectuelle et l’identité disciplinaire reposent sur le travail de terrain plutôt que sur une réutilisation ou une analyse secondaire des données récoltées par d’autres chercheurs. Cet article vise principalement la valeur interprétative et créative des bases de données numériques d’histoire orale, ou archives vivantes, ainsi que leur valeur publique ou politique. Les archives d’histoire orale doivent être des sites de circulation de données et de conservation numérique ainsi que des dépôts dynamiques visant la préservation à long terme.
APA, Harvard, Vancouver, ISO, and other styles
7

Monday, Isabelle. "Les processus cognitifs et la rédaction de résumés." Documentation et bibliothèques 42, no. 2 (September 29, 2015): 55–63. http://dx.doi.org/10.7202/1033282ar.

Full text
Abstract:
La compréhension en vue de la rédaction implique l’identification des concepts essentiels d’un texte. Elle nécessite l’interaction de processus intellectuels complexes. Les schémas intellectuels permettent aux individus d’encoder la réalité les entourant et d’emmagasiner l’information perçue. Des unités cognitives organisées telles les concepts, les propositions et les épisodes représentent des objets ou des événements. Pour ce faire, les mémoires à court terme et à long terme encodent cette information. Ces différentes structures cognitives sont activées lors de la lecture d’un texte et de la rédaction de son résumé. Le processus de « condensation » s’apparente à une chaîne d’opérations qui transforment le texte original en éliminant les informations superflues. Dans son modèle pour la rédaction de résumés, Pinto Molina (1995) considère, d’une part, les données textuelles, et d’autre part, les données documentaires à savoir le rédacteur, les intentions de production et les demandes des utilisateurs, en somme le contexte de rédaction.
APA, Harvard, Vancouver, ISO, and other styles
8

Pirotte, Alain. "Estimation de relations de long terme sur données de panel : nouveaux résultats." Économie & prévision 126, no. 5 (1996): 143–61. http://dx.doi.org/10.3406/ecop.1996.5828.

Full text
APA, Harvard, Vancouver, ISO, and other styles
9

Cohen, Marsha M., Noralou P. Roos, Carolyn DeCoster, Charlyn Black, and Kathleen M. Decker. "Bases de données du Manitoba basées sur la population et planification à long terme: Au-Delà des bases de données d'hôpitaux." Healthcare Management Forum 8, no. 3 (October 1995): 14–23. http://dx.doi.org/10.1016/s0840-4704(10)60915-5.

Full text
Abstract:
Le Manitoba Centre for Health Policy and Evaluation (MCHPE) fait une recherche sur les services de santé concentrée sur les bases de données administratives du Manitoba. Les bases de données administratives contiennent de l'information qui est recueillie de façon constante et systématique pour les besoins de l'administration, comme les demandes de remboursement des hôpitaux et des médecins, et les exigences de financement. On décrit dans cet article les cinq principales bases de données du MCHPE, leurs points forts et leurs points faibles, ainsi que le fonctionnement du Population Health Information System (PHIS). Quatre modules du PHIS illustrent comment les données sont utilisées pour fournir de l'information utile aux planificateurs de soins de santé, aux administrateurs et aux analystes de politiques. Enfin, on explore les projets et les orientations futurs pour l'utilisation de bases de données administratives.
APA, Harvard, Vancouver, ISO, and other styles
10

Bélanger, Lynda, Kieron O'Connor, Gilles Dupuis, and André Marchand. "L’utilisation clinique des benzodiazépines pour le traitement de l’anxiété : Où en sommes-nous?" Santé mentale au Québec 27, no. 2 (February 19, 2007): 260–80. http://dx.doi.org/10.7202/014567ar.

Full text
Abstract:
Résumé Cet article vise à faire le point sur l'utilisation clinique des benzodiazépines (BZD) pour le traitement de l'anxiété. Une synthèse de la littérature sur les différents aspects potentiellement problématiques associés à leur utilisation à long terme pour la gestion de l'anxiété ainsi que des solutions alternatives sont présentées. La recherche a été effectuée à l'aide des banques de données Medline et Psychlitt consultées de 1980 à 2001. Des articles pertinents mais antérieurs à ces dates, localisés par l'entremise de la section référence des articles révisés, ont également été consultés. Conclusion : les risques et bénéfices de l'utilisation à long terme des BZD pour le traitement de l'anxiété ne sont toujours pas clairement établis. Néanmoins, malgré des recommandations d'une utilisation à court terme seulement, une proportion importante de patients les utilisent encore sur une base continue. Il serait utile d'évaluer la façon dont certaines ressources alternatives sont présentées aux patients et, s'il y a lieu, comment les rendre plus accessibles et attrayantes pour les patients anxieux.
APA, Harvard, Vancouver, ISO, and other styles
More sources

Dissertations / Theses on the topic "Acquisition de données long terme"

1

Striegel, Lucas. "Etudes numérique et expérimentale de récupérateurs d’eaux pluviales enterrés géothermiques pour le rafraîchissement passif des bâtiments." Electronic Thesis or Diss., Strasbourg, 2024. https://publication-theses.unistra.fr/restreint/theses_doctorat/2024/STRIEGEL_Lucas_2024_ED269.pdf.

Full text
Abstract:
Face au changement climatique, caractérisé notamment par des périodes caniculaires plus longues et intenses, mais aussi par une disponibilité irrégulière de la ressource en eau, il est nécessaire d’apporter des solutions sobres en consommations énergétiques pour renforcer la résilience des bâtiments. Les cuves de récupération d’eaux de pluie enterrées sont des systèmes de plus en plus exploités qui permettent la gestion et le stockage de l’eau. En y immergeant un échangeur de chaleur, il est possible de profiter de l’effet géothermique de l’eau et du sol environnant pour rafraîchir les bâtiments de façon passive. Ce travail de recherche vise à étudier les performances et la faisabilité de ces systèmes hybrides. Un modèle numérique a été développé et validé grâce aux données recueillies par l’instrumentation de prototypes à l’échelle 1 pendant près de trois ans. L’exploitation du modèle a mis en évidence les facteurs influents du système. Des règles de prédimensionnement pour évaluer la quantité d’énergie potentiellement récupérable ont ensuite été établies. Le modèle du système a ensuite été intégré dans un outil de simulation énergétique du bâtiment pour évaluer les gains en termes de confort des occupants
In the face of climate change, characterized by longer and more intense heatwaves, as well as irregular availability of water resources, it is essential to provide energy-efficient solutions to strengthen the resilience of buildings. Underground rainwater tanks are increasingly being exploited as systems for managing and storing water. By immersing a heat exchanger in the tank, it is possible to harness the geothermal effect of the water and surrounding soil to passively cool buildings. This research aims to study the performance and feasibility of these hybrid systems. A numerical model was developed and validated using data collected from the monitoring of full-scale prototypes over a period of nearly three years. The model was used to highlight the key factors influencing the system. The model was used to identify the factors influencing the system. Presizing rules were then established to assess the amount of energy that could potentially be recovered. The system model was then integrated into a building energy simulation tool to assess the gains in terms of occupant comfort
APA, Harvard, Vancouver, ISO, and other styles
2

Pirotte, Alain. "Court terme et long terme en économétrie : l'apport de la cointégration aux données de panel." Paris 12, 1994. http://www.theses.fr/1994PA122009.

Full text
Abstract:
Les notions de temps calendaire et de temps economique ont souvent ete apprehendee de facon distincte. Les economistes ont rencontre de nombreuses difficultes a les articuler. L'econometrie est venue apporter une solution dans la mesure ou les modeles dynamiques, moyennant certaines hypotheses (stationnarite) sur les proprietes statistiques des series ont permis de combiner les effets de court terme et de long terme tout en donnant une interpretation economique concrete au phenomene analyse. La theorie de la cointerpretation a fourni un cadre general pour rendre coherente la modelisation sur series temporelles et valider l'hypothese de stationnarite habituellement posee dans la modelisation traditionnelle. En effet, elle propose une demarche en plusieurs etapes en commencant tout d'abord par tester l'hypothese de stationnarite des series. On determine ainsi, l'ordre d'interpretation de chacune d'entre elles. Une fois les ordres d'integration des series reperes, il est possible d'obtenir, sous certaines conditions, une relation d'equilibre de long terme stable. Apres avoir verifie cette stabilite, on cale le mecanisme d'ajustement de court terme sur l'erreur d'equilibre de long terme precedemment estimee. On s'assure ainsi de la coherence entre le mecanisme d'ajustement de court terme donne par le modele a correction d'erreur et la trajectoire de long terme. Sur des donnees de panel, la logique de la cointegration ne s'applique pas directement. En effet, malgre la double dimension individuelle et temporelle, cette derniere est le plus souvent finie. Or, les proprietes des methodes d7estimation de la cointegration sont asymptotiques.
APA, Harvard, Vancouver, ISO, and other styles
3

Pic, Xavier. "Algorithmes de codage pour le stockage à long terme d'images numériques sur de l'ADN synthétique." Electronic Thesis or Diss., Université Côte d'Azur, 2024. https://theses.hal.science/tel-04808336.

Full text
Abstract:
L'ADN, de par sa durée de vie élevée (plusieurs siècles), est désormais considéré comme un candidat sérieux pour l'archivage de données dites “froides”, des données rarement consultées qui représentent la majorité de l'espace de stockage actuel (environ 80% de l'espace de stockage global). Cependant, l'ADN est une molécule qui utilise 4 symboles pour coder ses données (A,C,G,T) au lieu du système binaire (0,1) utilisé dans le monde du numérique. Stocker des données dans de l'ADN exige donc de mettre en place des systèmes capables de traduire les données binaires en données dites quaternaires adaptées aux molécules d'ADN. L'objectif de cette thèse est d'étudier de nouvelles techniques d'encodage issues du monde du Deep Learning et de trouver les méthodes permettant d'adapter ces techniques à l'encodage et au décodage, ainsi qu'à la compression et à la décompression d'images sur ADN synthétique
The current digital world is facing a number of issues, some of them linked to the amount of data that is being stored. The current technologies available as an offer to store data are not enough to store the totality of the storage demand. For this reason, new data storage technologies have to be developed. DNA molecules are one of the candidates available for novel data storage methods. The long lifespan of these molecules make it a good fit for the archival of data that is rarely accessed but needs to be stored for long periods of time. This data, often called “cold”, represents approximately 80% of the data in our digital universe. But DNA uses 4 symbols (A,C,G and T) to encode data against the usual binary code (0,1). For this reason, storing data into DNA requires a specific encoding system capable of translating a binary data stream into a quaternary data stream. In this thesis we will focus on new encoding methods from the Deep Learning state of the art, and we will adapt those methods for the encoding, decoding, compression and decompression of images on synthetic DNA
APA, Harvard, Vancouver, ISO, and other styles
4

Dongmo-Kengfack, José Nadège. "Les relations de long terme entre la notation des banques par les agences et leur valorisation." Thesis, Université de Lorraine, 2014. http://www.theses.fr/2014LORR0319/document.

Full text
Abstract:
La particularité et l’originalité de cette recherche résident dans notre choix d’étudier l’influence à long terme de la notation financière sur la valeur des banques plutôt que son impact immédiat sur les cours boursiers des actions. Le contexte de cette recherche est la crise financière de 2007-2008 durant laquelle les valeurs bancaires ont considérablement chuté. En effet, cette crise a renouvelé l’intérêt d’étudier la notation financière et son influence sur les entreprises notées, en particulier lorsqu’il s’agit des banques. Notre interrogation centrale est de savoir comment et dans quelles mesures les notations d’agences contribuent à expliquer la valorisation des banques à long terme. La notation des banques par les agences influence-t-elle leur performance, leur gouvernance, leur structure de financement, et par conséquent, leur valeur? Est-elle réciproquement influencée par la valorisation des banques sur le marché? Notre recherche s’inscrit donc dans le prolongement des travaux qui montrent l’influence de la note sur la valeur des entreprises, mais notre démarche est différente. D'une part, nous nous concentrons uniquement sur le secteur bancaire qui est particulier, et où l’influence de la notation peut être différente et plus forte que sur les entreprises ou groupes industriels. D'autre part, nous mobilisons l’approche financière de la gouvernance qui met en évidence le lien entre la gouvernance et la valorisation des entreprises (Charreaux G., 1997 ; Gompers et al., 2003 ; Rob Bauer et al., 2003 ; Barth, Caprio et Levine, 2004 ; Levine, 2004), et la théorie néo-institutionnelle développée par Meyer et Rowan (1977), Scott et de Meyer (1983), DiMaggio et Powell (1991, 1997) et North (1990). Cette deuxième théorie met en évidence l’influence des institutions sur les organisations, leur gestion et leur performance. En combinant ces deux approches, nous explorons et analysons les voies par lesquelles les notations des agences peuvent influencer la valeur des entreprises bancaires à long terme, notamment en les incitant à se conformer à un modèle de bonnes pratiques sous-jacent aux critères que les agences de notation affichent pour les évaluer. Nous cherchons à valider empiriquement cette analyse au travers d'une approche quantitative et économétrique, en utilisant des données internationales tirées des bases Bloomberg, Bankscope et Fininfo relatives à 161 grandes banques de 18 pays, sur les années 2001 à 2010. Après avoir construit des indicateurs homogènes de notation, la validation de nos hypothèses de recherche repose sur des analyses bivariées, des régressions sur les données de panel, des tests de causalité de Granger et un modèle Logit polytomique. Nos résultats montrent qu’un cran supplémentaire, c’est-à-dire une dégradation d'un cran de la note de solidité financière semble entraîner une diminution significative de la valeur des banques. Ce lien n’est pas significatif en période de crise. L’effet de la notation de crédit sur la valorisation est peu significatif. Cependant, les tests de causalité de Granger montrent une boucle rétroactive entre la notation de crédit, le coût moyen pondéré des dettes et la taille des banques. Les résultats d'un modèle Logit polytomique montrent que les notes de solidité financière attribuées par les agences ne sont influencées par les indicateurs de valorisation des banques qu'après le déclenchement de la crise des « Subprimes » couverte par notre période d’étude (en 2008 et 2009)
The distinctiveness and uniqueness of this research lies in the fact that it studies the long-term effects of credit rating on the value of banks rather than its immediate impact on the shares’ market price. The context of this research is the subprime crisis period of 2007-2008 during which banking stocks declined dramatically. This crisis caused a reawakening of interest in the study of credit rating and its impact on rated companies, especially when the rated companies are banks. The central question is to know how and to what extent credit rating helps to explain the long-term valuation of banks. How does the bank rating affect their performance, their governance, their capital structure, and therefore their value? Reciprocally, how does banks valuation impact their credit ratings? Our research follows the path of previous studies showing the impact of credit rating on the value of companies, but our approach is different. On one hand we focus only on the banking sector which is particular, and where the impact of credit rating can be different and stronger than on the other companies or industrial groups. On other hand we mobilize corporate governance approach that highlights the link between governance and valuation (Charreaux G., 1997; Gompers et al., 2003, Rob Bauer et al., 2003; Barth, Caprio and Levine, 2004; Levine, 2004). We also mobilize the neo-institutional theory developed by Meyer and Rowan (1977), Scott and Meyer (1983), DiMaggio and Powell (1991, 1997) and North (1990) that highlights the impact of institutions on organizations, their management and performance. These two approaches allow us to describe and analyze the ways and means by which credit rating can impact banks values in the long term, particularly by inspiring banks to use the “best practices” disseminated in the rating methodologies for banks. We try to empirically validate this analysis through a quantitative and econometric approach, using data from international databases such as Bloomberg, Bankscope and Fininfo about 161 large banks from 18 countries over the period 2001 to 2010. After building uniform credit rating indicators, we use bivariate analysis, regressions on panel data, Granger causality tests and multinomial logit model to test our assumptions. Our results show that one notch downgrade of a bank financial strength rating seems to cause a significant decrease of its valuation. This impact is not significant in a crisis period. The effect of the issuer credit rating on bank valuation is not significant. However, Granger causality tests show a feedback loop between the issuer credit rating, the weighted average cost of debt and the size of banks. The results of a logit multinomial model show that the bank financial strength ratings assigned by the rating agencies are influenced by the bank valuation indicators only for the years 2008 and 2009
APA, Harvard, Vancouver, ISO, and other styles
5

Rakotonjanahary, Ndrianjaka Josué. "Suivi à long terme des enfants traités pour gliome des voies optiques par chimiothérapie première BB-SFOP : survie à long terme - perte de la vision - outil d'interprétation des données IRMs." Thesis, Strasbourg, 2018. http://www.theses.fr/2018STRAJ116.

Full text
Abstract:
Les gliomes des voies optiques (GVO) sont des tumeurs bénignes pouvant être observées durant l’enfance. La prise en charge des GVO a évolué durant ces dernières décennies en évitant la radiothérapie et en donnant une place plus importante à la chimiothérapie. L’IRM est un des éléments fondamentaux dans la prise en charge. Cependant, les mesures tumorales sont soumises à des importantes variabilités inter et/ou intra-observateur. Pour mieux comprendre le devenir à long terme des enfants traités par chimiothérapie initiale, le devenir des enfants traités en France pour GVO par chimiothérapie initiale BB-SFOP a été évalué. Un outil standardisé permettant des interprétations fiables et reproductibles des IRMs a été créé et validé. La survie globale de ces patients montre un plus mauvais pronostic à long terme. Certains facteurs cliniques et radiologiques sont également associés à une perte de la vision observée à long terme. Ces découvertes pourraient justifier la mise en place d’une prise en charge adaptée en fonction du niveau de risque
Optic Pathway Gliomas (OPG) are benign tumors that typically develop during early childhood. The management of patients varied throughout the last decades and was characterized by an emphasis on avoiding the use of radiotherapy. The role of chemotherapy in the management of OPG has increased. MRI is one of the fundamental elements of the management of these children. However, the tumor measurements are subject to inter and/or intraobserver variations. In an attempt to better understand the long-term outcomes of children treated with initial chemotherapy, long-term outcomes of OPG treated in France with up-front BB-SFOP chemotherapy were evaluated. A standardized and reproducible imaging classification for MRI that can be used as a reliable monitoring tool for patients with OPG was created and validated. The long-term outcomes of these patients showed a poorer prognosis for overall survival. Some clinical and radiological factors were associated with long-term vision loss. These findings could justify a risk-based approach to this tumor
APA, Harvard, Vancouver, ISO, and other styles
6

Dhomps, Anne-Lise. "Améliorations des méthodes de combinaison des données Argo et altimétrie pour le suivi des variations à long terme de l'océan." Toulouse 3, 2010. http://thesesups.ups-tlse.fr/1299/.

Full text
Abstract:
L'objectif de cette thèse est d'analyser la variabilité océanique en température et salinité sur la période 1993-2008. Pour cela, nous utilisons des données in situ de température et de salinité, et des données satellites de température de surface de l'eau et de hauteur de mer. Plusieurs étapes sont indispensables : créer une base de données solide et cohérente, comparer les jeux de données, puis développer des méthodes de combinaison afin d'assembler les jeux de données. L'intercomparaison des jeux de données Altimétrique et Argo permet dans un premier temps de vérifier la qualité du jeu de données Argo. Le jeu de données Argo permet d'améliorer les comparaisons effectuée par Guinehut et al, (2006) sur la comparaison entre les hauteurs de mer altimétriques et hydrologiques. Nous expliquons pourquoi et détaillons les améliorations. Nous étudions également l'impact du retrait du cycle saisonnier et l'influence de la structure verticale de l'océan dans la répartition barotrope/barocline de la circulation. Nous terminons sur l'analyse de la circulation saisonnière et inter-annuelle à 1000 mètres de profondeur. Les champs Armor3d, combinaison de champs satellites et de profils in situ existent depuis plusieurs années. Le récent jeu de données fourni par les flotteurs Argo permet de considérablement améliorer les paramètres de la combinaison, de couvrir une meilleure zone géographique et d'avoir des champs plus profonds. Nous montrons que les deux types de mesures sont indispensables, même pour étudier la variabilité grande échelle de l'océan. Enfin, nous utilisons nos champs Armor3d pour étudier la variabilité océanique des 16 dernières années
The objective of this thesis is to analyze the oceanic variability in temperature and salinity over the period 1993-2008. For that purpose, it is necessary to use the maximum of observations available, namely in situ data of temperature and salinity, but also satellite data of sea surface temperature and sea height. To reach our objective, several steps are necessary: create a solid and coherent database, compare datasets to have a better physical understanding of the contents of every type of data then develop methods of combination to assemble the datasets. The cross-comparison of the altimetric and Argo datasets allows at first to verify the quality of the Argo dataset. In 2006, Guinehut and al published a paper on the comparison of SLA (Sea Level Anomaly) and DHA (Dynamic Height Anomaly). Today, the Argo dataset allows improving the comparisons. We explain why and we detail the differences between both studies. We also study the impact of the removal of the seasonal cycle and the influence of the vertical structure of the ocean in the barotrope / barocline distribution of the oceanic circulation. We end on the analysis of the SLA-DHA signal in term of seasonal and inter-annual circulation at 1000 meters deep. Armor3d Field, combination of satellite fields and in situ profiles exist for several years. The recent dataset supplied by Argo profilers allows improving considerably the parameters of the combination, to cover a better geographical zone and to have deeper fields. We show that both types of measures are needed, even to study the large scale variability of the ocean. Finally, we use our Armor3d fields to study the oceanic variability of the last 16 years
APA, Harvard, Vancouver, ISO, and other styles
7

Choffin, Benoît. "Algorithmes d’espacement adaptatif de l’apprentissage pour l’optimisation de la maîtrise à long terme de composantes de connaissance." Electronic Thesis or Diss., université Paris-Saclay, 2021. http://www.theses.fr/2021UPASG001.

Full text
Abstract:
Entre acquérir de nouvelles connaissances et revoir les anciennes pour en atténuer l’oubli, les apprenants peuvent avoir du mal à organiser efficacement leur temps d’apprentissage. Les algorithmes d’espacement adaptatif de l’apprentissage, tels SuperMemo, permettent d’aider les apprenants à résoudre cet arbitrage. Ces algorithmes planifient les révisions successives d’une même connaissance de manière optimale et personnalisée en tenant compte des besoins de chaque apprenant. Comparé à un espacement temporel entre les révisions identique pour tous les individus, plusieurs expériences montrent que l’espacement adaptatif maintient un plus haut degré d’ancrage en mémoire à long terme des informations apprises.Jusqu’ici, la recherche sur l’espacement adaptatif de l’apprentissage s’est concentrée sur la mémorisation pure de connaissances simples, représentées souvent par le biais de flashcards. Or, plusieurs études en psychologie cognitive montrent que les bénéfices de l’espacement de l’apprentissage sur la mémorisation à long terme s’étendent aussi à des connaissances plus complexes, telles que l’apprentissage de concepts et de procédures en mathématiques. Dans cette thèse, nous avons donc cherché à développer des algorithmes d’espacement adaptatif et personnalisé de l’apprentissage de composantes de connaissance (CC).Dans un premier temps, nous proposons un nouveau modèle statistique de l’apprentissage et l’oubli de CC, appelé DAS3H, et montrons empiriquement qu’il possède de meilleures performances prédictives que plusieurs modèles de l’apprenant en fouille de données éducatives. Ensuite, nous développons plusieurs heuristiques d’espacement adaptatif pour la maîtrise à long terme de CC et comparons leurs performances sur des données simulées. Deux de ces heuristiques reposent sur le modèle DAS3H pour sélectionner la CC à faire réviser à un instant donné. Nous proposons en outre une nouvelle procédure gloutonne pour sélectionner le sous-ensemble de CC le plus prometteur au lieu de la meilleure CC à faire réviser. Enfin, dans le dernier chapitre de cette thèse, nous développons AC4S, un algorithme d’apprentissage par renforcement profond pour l’espacement adaptatif de l’apprentissage de CC. Nous comparons cette approche fondée sur les données à nos méthodes heuristiques, présentées précédemment
Between acquiring new knowledge and reviewing old knowledge to mitigate forgetting, learners may find it difficult to organize their learning time effectively. Adaptive spacing algorithms, like SuperMemo, can help learners deal with this trade-off. Such algorithms sequentially plan reviews of a given piece of knowledge to adapt to the specific and ongoing needs of each learner. Compared to a fixed and identical temporal spacing between reviews, several experiments have shown that adaptive spacing improves long-term memory retention of the piece of knowledge.To date, research on adaptive spacing algorithms has focused on the pure memorization of simple pieces of knowledge, which are often represented by flashcards. However, several studies in cognitive psychology have shown that the benefits of spacing out learning episodes on long-term retention also extend to more complex knowledge, such as learning concepts and procedures in mathematics. In this thesis, we have therefore sought to develop adaptive and personalized spacing algorithms for optimizing long-term mastery of knowledge components (KCs).First, we develop and present a new statistical model of learning and forgetting of knowledge components, coined DAS3H, and we empirically show that DAS3H has better predictive performance than several learner models in educational data mining. Second, we develop several adaptive spacing heuristics for long-term mastery of KCs and compare their performance on simulated data. Two of these heuristics use the DAS3H model to select which KC should be reviewed by a given learner at a given time. In addition, we propose a new greedy procedure to select the most promising subset of KCs instead of the best KC to review. Finally, in the last chapter of this thesis, we develop AC4S, a deep reinforcement learning algorithm for adaptive spacing for KCs. We compare this data-driven approach to the heuristic methods that we presented previously
APA, Harvard, Vancouver, ISO, and other styles
8

Dimopoulou, Melpomeni. "Techniques de codage pour le stockage à long terme d’images numériques dans l’ADN synthétique." Thesis, Université Côte d'Azur, 2020. http://www.theses.fr/2020COAZ4073.

Full text
Abstract:
L’explosion de la quantité de données est l’un des plus grands défis de l'évolution numérique, entraînant une croissance de la demande de stockage à un rythme tel qu'elle ne peut pas rivaliser avec les capacités réelles des périphériques. L'univers numérique devrait atteindre plus de 175 zettaoctets d'ici 2025, tandis que le 80% de ces données est rarement consultée (données froides), mais archivée sur des bandes magnétiques pour des raisons de sécurité et de conformité réglementaire. Les dispositifs de stockage conventionnels ont une durée de vie limitée de 10 à 20 ans et doivent donc être fréquemment remplacés pour garantir la fiabilité des données, un processus qui est coûteux en termes d'argent et d'énergie. L'ADN est un candidat très prometteur pour l'archivage à long terme de données « froides » pendant des siècles voire plus à condition que l'information soit encodée dans un flux quaternaire constitué des symboles A, T, C, G, pour représenter les 4 composants de la molécule d'ADN, tout en respectant certaines contraintes d'encodage importantes. Dans cette thèse, nous présentons de nouvelles techniques de codage pour le stockage efficace d'images numériques dans l'ADN. Nous avons implémenté un nouvel algorithme de longueur fixe pour la construction d'un code quaternaire robuste qui respecte les contraintes biologiques et proposé deux fonctions de "mapping" différentes pour permettre une flexibilité par rapport aux besoins d'encodage. De plus, l'un des principaux défis du stockage des données dans l’ADN étant le coût élevé de la synthèse, nous faisons une toute première tentative pour introduire une compression contrôlée dans la solution de codage proposée. Le codec proposé est compétitif par rapport à l'état de l'art. En outre, notre solution de codage / décodage de bout en bout a été expérimentée dans une expérience de laboratoire humide pour prouver la faisabilité de l'étude théorique dans la pratique
Data explosion is one of the greatest challenges of digital evolution, causing the storage demand to grow at such a rate that it cannot compete with the actual capabilities of devices. The digital universe is forecast to grow to over 175 zettabytes by 2025 while 80% is infrequently accessed (“cold” data), yet safely archived in off-line tape drives due to security and regulatory compliance reasons. At the same time, conventional storage devices have a limited lifespan of 10 to 20 years and therefore should be frequently replaced to ensure data reliability, a process which is expensive both in terms of money and energy. Recent studies have shown that due to its biological properties, DNA is a very promising candidate for the long-term archiving of “cold” digital data for centuries or even longer under the condition that the information is encoded in a quaternary stream made up of the symbols A, T, C and G, to represent the 4 components of the DNA molecule, while also respecting some important encoding constraints. Pioneering works have proposed different algorithms for DNA coding leaving room for further improvement. In this thesis we present some novel image coding techniques for the efficient storage of digital images into DNA. We implemented a novel fixed length algorithm for the construction of a robust quaternary code that respects the biological constraints and proposed two different mapping functions to allow flexibility according to the encoding needs. Furthermore, one of the main challenges of DNA data storage being the expensive cost of DNA synthesis, we make a very first attempt to introduce controlled compression in the proposed encoding workflow. The, proposed codec is competitive compared to the state of the art. Furthermore, our end-to-end coding/decoding solution has been experimented in a wet lab experiment to prove feasibility of the theoretical study in practice
APA, Harvard, Vancouver, ISO, and other styles
9

Troude, Pénélope. "Devenir à long terme de couples traités par fécondation in vitro dans la cohorte DAIFI." Phd thesis, Université Paris Sud - Paris XI, 2013. http://tel.archives-ouvertes.fr/tel-00933360.

Full text
Abstract:
Les études sur les couples traités par fécondation in vitro (FIV) ont jusqu'à présent porté essentiellement sur l'évaluation du succès en FIV. Très peu de données sont disponibles sur le devenir à long terme de couples traités par FIV. L'objectif de ce travail était d'estimer la fréquence de réalisation du projet parental à long terme, et d'étudier les facteurs associés aux interruptions précoces des traitements et aux naissances naturelles.L'enquête DAIFI-2009 a inclus 6 507 couples ayant débuté un programme de FIV en 2000-2002 dans l'un des 8 centres de FIV participant à l'étude. Les données médicales des couples et leur parcours dans le centre ont été obtenus à partir des dossiers médicaux des centres de FIV pour tous les couples. L'information sur le devenir des couples après le départ du centre a été obtenue par questionnaire postal auprès des couples en 2008-2009 (38% de participation 7 à 9 ans après l'initiation des FIV). L'étude des facteurs associés à la participation à l'enquête postale suggérait que la fréquence de réalisation du projet parental estimée sur les répondants seulement pourrait être biaisée. Les différentes méthodes mises en œuvre pour corriger la non réponse (pondération, imputation multiple) n'ont pas modifié l'estimation de la fréquence de réalisation du projet parental. Au total, 7 à 9 ans après l'initiation des FIV, 60% des couples ont réalisé leur projet parental de façon biologique, suite à un traitement ou suite à une conception naturelle. Lorsque les adoptions sont aussi prises en compte, 71% des couples ont réalisé leur projet parental. Après l'échec d'une première tentative de FIV, un couple sur 4 (26%) a interrompu les FIV dans le centre d'inclusion. Globalement, les couples avec de mauvais facteurs pronostiques ont un plus grand risque d'interrompre les FIV. Cependant, la proportion plus importante d'interruption parmi les couples avec une origine inexpliquée de l'infécondité pourrait s'expliquer par la survenue plus fréquente de naissance naturelle dans ce sous-groupe de couples. Parmi les couples n'ayant pas eu d'enfant suite aux traitements, 24% ont ensuite conçu naturellement en médiane 28 mois après l'initiation des FIV. Parmi les couples ayant eu un enfant suite aux traitements, 17% ont ensuite conçu naturellement en médiane 33 mois après la naissance de l'enfant conçu par AMP. Les facteurs associés aux naissances naturelles sont des indicateurs d'un meilleur pronostic de fertilité, particulièrement chez les couples sans enfant AMP.L'enquête DAIFI-2009 a permis d'apporter des informations sur le parcours à long terme des couples traités par FIV qui n'avait jusqu'à présent été que peu étudié, souvent sur de faibles effectifs et avec un suivi plus court. Ces résultats doivent apporter de l'espoir aux couples inféconds, puisque la majorité d'entre eux ont finalement réalisé leur projet parental, même si cela peut prendre de nombreuses années.
APA, Harvard, Vancouver, ISO, and other styles
10

Rodriguez, Chavez Mario-Luis. "Anticipation de l'accès à la ressource granulats par rupture des schémas actuels à long terme." Phd thesis, École Nationale Supérieure des Mines de Paris, 2010. http://pastel.archives-ouvertes.fr/pastel-00563707.

Full text
Abstract:
L'objectif de ce travail est d'anticiper l'accès à la ressource granulats au-delà des schémas actuels à long terme en France. Cette thèse, qui s'inscrit dans le cadre du projet ANR " ANTAG ", a principalement pour but la création et l'exploitation d'un système d'aide à la décision pour le marché national des granulats permettant de simuler les effets à l'échelle de 30 ans de décisions liées à l'approvisionnement des granulats et au développement de la consommation et du transport. L'approche suivie s'appuie sur un modèle de type top-down, macro-économique et il est fondé sur le principe de modélisation System Dynamics. L'apport principal est le mécanisme qui décrit l'équilibre du marché entre les sources d'approvisionnement par distribution de la surcapacité sur les sources d'approvisionnement et qui permet de modéliser et de piloter la compétition entre les acteurs. Un scénario de base, construit à partir de données historiques, sert à concevoir sept scénarios provoqués par des " actions de rupture " qui sont analysés en termes d'évolution des variables clés économiques et environnementales. La puissance du modèle réside dans sa capacité à s'enrichir de nouvelles fonctionnalités permettant d'introduire de nouveaux mécanismes secondaires.
APA, Harvard, Vancouver, ISO, and other styles
More sources

Book chapters on the topic "Acquisition de données long terme"

1

"Des pâturages et des hommes sous perfusion glacière." In Science et développement durable, 182. Marseille: IRD Éditions, 2019. http://dx.doi.org/10.4000/1228j.

Full text
Abstract:
Dans les Andes tropicales, à l’aval des glaciers, un écosystème très particulier, vital pour les sociétés locales, est menacé par le changement climatique. Des images satellitaires couplées à des données de terrain permettent de proposer des scénarios d’évolution à long terme.
APA, Harvard, Vancouver, ISO, and other styles
2

LABROSSE, Stéphane. "Flux de chaleur et refroidissement séculaire du manteau." In Structure et dynamique de l’intérieur de la Terre 1, 157–88. ISTE Group, 2024. http://dx.doi.org/10.51926/iste.9172.ch5.

Full text
Abstract:
Les données de flux de chaleur sortant de la Terre, aussi bien au niveau des océans que des continents, sont discutées pour établir le bilan énergétique de la Terre et le relier à la dynamique convective du manteau. Ce bilan permet également de discuter l’évolution thermique à long terme de la Terre.
APA, Harvard, Vancouver, ISO, and other styles
3

Le Béchec, Mariannig, Philippe Charrier, and Gabriel Gallezot. "Communication scientifique et science ouverte." In Communication scientifique et science ouverte, 173–82. De Boeck Supérieur, 2023. http://dx.doi.org/10.3917/dbu.annai.2023.01.0173.

Full text
Abstract:
Résumé Les données de recherche sont un des enjeux des politiques publiques de la science ouverte. Dans le cycle de la gestion des données, chaque étape est dépendante l’une de l’autre et stocker des flux de données dans une infrastructure de recherche favorise la mémoire des résultats de la recherche à des fins de réutilisation ou de patrimonialisation. Des infrastructures de recherche institutionnelles existent dans les communautés scientifiques depuis les années 1970. Pour autant, les pratiques de recherche ont-elles toutes adopté les principes d’ouverture des données de recherche ? Dans le cadre d’une enquête nationale menée en France en 2020 les chercheuses et chercheurs interrogés en France ne développent pas de stratégie à long terme de sauvegarde des données de recherche. Pour expliquer ce résultat, nous soulignons des disparités socio-démographiques, selon le contexte de travail et l’attachement personnel aux données.
APA, Harvard, Vancouver, ISO, and other styles

Conference papers on the topic "Acquisition de données long terme"

1

Devenon, J.-L., Philippe Fraunié, and Vincent Rey. "Une méthode d'assimilation de données pour identifier le coefficient de diffusion d'un modèle d'évolution long terme de trait de côte." In Journées Nationales Génie Côtier - Génie Civil. Editions Paralia, 1998. http://dx.doi.org/10.5150/jngcgc.1998.017-d.

Full text
APA, Harvard, Vancouver, ISO, and other styles
2

REY, Vincent, Caroline PAUGAM, Christiane DUFRESNE, Didier MALLARINO, Tathy MISSAMOU, and Jean-Luc FUDA. "Seiches à l’échelle de baies : origines et identification des périodes propres d’oscillations à partir des données d’observations sur le long terme en Provence à partir du réseau HTM-NET." In Journées Nationales Génie Côtier - Génie Civil. Editions Paralia, 2022. http://dx.doi.org/10.5150/jngcgc.2022.093.

Full text
APA, Harvard, Vancouver, ISO, and other styles
3

Pajot, T., S. Ketoff, and L. Bénichou. "Chirurgie implantaire guidée : acquisition, planification, modélisation et production d'un guide chirurgical. Mise en place d'une chaine numérique pour la création interne et l'utilisation de guides chirurgicaux." In 66ème Congrès de la SFCO. Les Ulis, France: EDP Sciences, 2020. http://dx.doi.org/10.1051/sfco/20206602006.

Full text
Abstract:
Introduction : Devenue incontournable de nos jours pour la réhabilitation de patients présentant des édentements unitaires, partiels ou totaux, la chirurgie implantaire a connu ces dernières années de nombreuses évolutions. Même si les mesures radiographiques et l'analyse des modèles d'étude physiques sont toujours les ressources les plus utilisées par les praticiens pour recueillir les différentes données nécessaires à la prise en charge du patient, la révolution numérique et l'avènement de l'impression en trois dimensions (3D) ont récemment beaucoup fait évoluer les pratiques et offrent de nouveaux horizons. C'est dans cet esprit qu'une chaine méthodologique complétement numérique a été mise en place pour la création de guides chirurgicaux implantaires à l'aide d'une imprimante 3D. OBSERVATION : L'auteur évoquera les différents éléments utilisés dans le service nécessaires à la mise en place de cette chaine digitale (Cone Beam, caméra d'empreintes optiques intra-orale, logiciel de planification, imprimante 3D) avant de présenter différents cas réalisés à l'aide de celle-ci. DISCUSSION : L'utilisation d'une telle chaine dans un service hospitalier n'est pas simple et son impact difficile à évaluer. L'auteur reviendra donc dans un premier temps sur les différents problèmes rencontrés lors de la création des différents guides chirurgicaux (un point sera notamment fait sur la législation concernant l'utilisation de ces guides imprimés en 3D dans et par un établissement hospitalier). Dans un second temps, on évaluera également l'intérêt de se doter d'une telle chaine numérique : l'intérêt financier (pour l'hôpital mais aussi pour le patient), le temps imparti à la prise en charge du patient (nombre et durée des consultations, temps dédié à la planification implantaire), et l'intérêt chirurgical (notamment l'évaluation de la précision de la thérapeutique implantaire). CONCLUSION : Les nouvelles technologies font évoluer nos pratiques. Si elles nécessitent initialement un investissement financier et humain important (temps d'adaptation, courbe d'apprentissage ), elles permettent à terme et utilisées dans de bonnes indications de faciliter et d'améliorer la prise en charge des patients.
APA, Harvard, Vancouver, ISO, and other styles

Reports on the topic "Acquisition de données long terme"

1

Kerfoot, H. Une perspective à long terme et un plan de développement pour un service canadien de données toponymiques numériques. Natural Resources Canada/ESS/Scientific and Technical Publishing Services, 1991. http://dx.doi.org/10.4095/298397.

Full text
APA, Harvard, Vancouver, ISO, and other styles
2

Langlais, Pierre-Carl. Données de recherche ouvertes. Comité pour la science ouverte, 2024. https://doi.org/10.52949/70.

Full text
Abstract:
La non-ouverture des données scientifiques pèse sur les budgets. On estime qu’une part importante des connaissances scientifiques disparaît chaque année. Selon une étude réalisée en 2014, moins de 50 % des jeux de données biologiques datant des années 1990 ont été récupérés, au prix d’un investissement élevé en temps et en efforts. À titre de comparaison, 98 % des jeux de données publiés dans PLOS avec des identifiants uniques (DOI) sont toujours disponibles pour les futures recherches. Les données scientifiques ouvertes sont des ressources fondamentales pour un grand nombre d’activités de recherche, comme la méta-analyse, la reproduction des résultats ou l’accessibilité des sources primaires. De plus, leur valeur économique et sociale est importante, car les données scientifiques sont fréquemment exploitées par des professionnels non universitaires, des agences publiques et des organisations à but non lucratif. Pourtant, les données scientifiques ouvertes impliquent certains coûts. Rendre les données à la fois téléchargeables et exploitables nécessite d’importants investissements en matière de documentation, de nettoyage des données, de licences et d’indexation. Il n’est pas possible de partager toutes les données scientifiques, et des contrôles sont souvent nécessaires pour vérifier l’absence d’informations personnelles ou de contenu soumis à droit d’auteur. Pour être efficace, le partage des données doit être anticipé tout au long du cycle de vie de la recherche. Les nouveaux principes de gestion des données scientifiques visent à formaliser les cultures de données observées dans les communautés scientifiques et à appliquer des normes communes. Initialement publiés en 2016, les principes FAIR (Facilité à trouver, Accessibilité, Interopérabilité et Réutilisabilité) constituent un cadre de référence pour l’ouverture des données scientifiques. Les politiques en faveur du partage des données sont passées d’un discours général d’encouragement au développement concret de services dédiés. Les premières initiatives remontent aux infrastructures informatiques pionnières : en 1957, le système WDC (World Data Center) visait à rendre facilement accessibles un large panel de données scientifiques. Les programmes de données ouvertes étaient pourtant sévèrement limités par les lacunes techniques et les incompatibilités lors des transferts. Après 1991, le Web a fourni un cadre universel pour l’échange de données et entraîné une expansion massive des bases de données scientifiques. Et pourtant, bien des projets ont rencontré des problèmes critiques de durabilité à long terme. Les infrastructures de science ouverte sont récemment devenues des vecteurs clés de la diffusion et de la gestion des données scientifiques ouvertes. Les référentiels assurent la conservation et la découvrabilité des ressources scientifiques. Les données qu’ils hébergent sont plus fréquemment utilisées et citées que celles publiées dans les fichiers supplémentaires.
APA, Harvard, Vancouver, ISO, and other styles
3

Boyd, John-Paul. Le polyamour au Canada : étude d’une structure familiale émergente. L’Institut Vanier de la famille, 2017. http://dx.doi.org/10.61959/sxof3911f.

Full text
Abstract:
En juin 2016, l’Institut canadien de recherche sur le droit et la famille a commencé à s’intéresser aux diverses perceptions concernant la notion de polyamour au Canada. Le projet n’en est encore qu’à mi-parcours, mais les données colligées jusqu’ici pourraient avoir une incidence importante sur la législation et les politiques au cours des prochaines décennies, suivant l’évolution constante de la notion de famille. Le terme polyamour est formé du préfixe grec poly (qui signifie « plusieurs » ou « en abondance ») et du mot d’origine latine amour. En accord avec cette étymologie, les polyamoureux vivent donc plusieurs relations intimes simultanées, ou manifestent une telle préférence. Certains polyamoureux sont engagés dans des relations amoureuses stables à long terme impliquant deux ou plusieurs autres partenaires, alors que d’autres entretiennent simultanément plusieurs relations plus ou moins durables ou engagées. Dans certains cas, les relations simultanées se vivent à court terme ou sur une base purement sexuelle, et parfois elles sont plus durables et se caractérisent par un engagement affectif plus marqué. Polyamour Pratique ou condition se caractérisant par la participation à plusieurs relations intimes simultanément, sans motivation religieuse ni obligation découlant du mariage. Polygamie Pratique ou condition se caractérisant par le fait d’avoir plusieurs époux ou épouses simultanément (habituellement des femmes), la plupart du temps pour des motifs religieux.
APA, Harvard, Vancouver, ISO, and other styles
4

Derrick, Fossong, and Ashu Mc Moi Ndi. Politique fiscale numérique et collecte des recettes fiscales au Cameroun. Institute of Development Studies, November 2024. http://dx.doi.org/10.19088/ictd.2024.091.

Full text
Abstract:
Le Cameroun a adopté une politique fiscale numérique il y a environ huit ans. Avant la mise en oeuvre complète de la politique fiscale numérique en 2016, les communes du Cameroun, en particulier les communes rurales et les communes d’arrondissement, ont signalé de nombreuses difficultés dues à des retards et à des irrégularités dans le partage des revenus du ouvernement central (impôts partagés). Les impôts directs et les redevances perçus par les communes étaient considérés comme faibles, compte tenu des efforts nécessaires pour les percevoir. Il est important de comprendre si l'adoption de la politique fiscal numérique a permis d'augmenter les recettes fiscales indispensables aux projets des collectivités locales et d'accroître les recettes fiscales générales. Les recettes fiscales générales correspondent aux transferts obligatoires vers le gouvernement central à des fins publiques et se composent de la rente des ressources, des impôts directs et indirects, et des taxes sur le commerce. Cette étude se penche sur les effets de la politique fiscale numérique sur la collecte des recettes fiscales au Cameroun en utilisant des données trimestrielles de 2010 à 2021 et une technique d'estimation par la méthode des décalages distribués autorégressifs (ARDL). Les résultats révèlent que la politique fiscal numérique mise en place en 2016 a eu un impact positif et significatif à long terme sur les recettes fiscales générales, mais un impact négatif et significatif à court terme sur les recettes fiscales générales. L'impact était positif mais non significatif sur les recettes fiscales locales prélevées par les communes, tant à long terme qu'à court terme. Les résultats indiquent que les gains positifs de la politique fiscale numérique au Cameroun n'ont pas encore été pleinement atteints en raison des contraintes locales dans les zones rurales. Sur la base de nos constatations, nous recommandons que les chefs d'entreprises soient formés à l'utilisation du système de déclaration et de paiement en ligne. Cela améliorera la facilité d'utilisation, réduira la dépendance vis à vis des agents et stimulera la collecte des recettes fiscales générales et des impôts locaux.
APA, Harvard, Vancouver, ISO, and other styles
5

Langlais, Pierre-Carl. Intégrité de la recherche. Comité pour la science ouverte, 2024. https://doi.org/10.52949/60.

Full text
Abstract:
Entre 2 et 4 % des chercheurs admettent avoir déjà falsifié ou fabriqué leurs données. La prévalence de ces comportements contraires à l’éthique peut atteindre 10 % dans certaines disciplines ou certains pays. La falsification de données est une forme exacerbée de pratiques de recherche douteuses qui sont à la fois moins problématiques et beaucoup plus répandues : des enquêtes menées dans différentes disciplines ont montré que plus de la moitié des chercheurs effectuent une forme de compte-rendu sélectif ou ajoutent de nouvelles données jusqu’à obtenir des résultats significatifs. Les pratiques non éthiques nuisent à la qualité globale de la recherche. A partir du moment où elles sont validées par peer-reviewing, les données fabriquées, déformées ou sélectionnées figurent ensuite dans revues de la littérature et méta-analyses. Elles peuvent à leur tour influencer les orientations de la recherche future ou même les décisions politiques avec des implications larges en matière de santé, d’économie ou de politique. Les incitations négatives font, en la matière, l’objet d’une attention particulière : les éditeurs, les institutions et les évaluateurs de la recherche tendent à favoriser les recherches inédites qui ne se contentent pas de confirmer les hypothèses courantes. Le manque d’outils, de normes et de flux de travail adéquats pour gérer efficacement les données est également un problème fondamental. Dans la plupart des disciplines, la collecte de données n’est pas bien organisée ni maintenue : on estime que la moitié des ensembles de données créés dans les années 1990 en sciences de la vie sont déjà perdus. Les pratiques de recherche douteuses découlent en partie des lacunes courantes dans la gestion des données scientifiques. La science ouverte et le partage des données ont récemment émergé comme un cadre commun pour résoudre les problèmes d’intégrité de la recherche. Bien qu’initialement centrée sur l’accès aux publications, le mouvement de la science ouverte concerne plus largement la transparence à toutes les étapes du cycle de vie de la recherche. La diffusion des ensembles de données dans des dépôts et des infrastructures ouverts a déjà largement résolu les principaux problèmes de préservation à long terme. Elle garantit également que les erreurs potentielles ou les ajustements des indicateurs statistiques peuvent être corrigés par la suite, car les analyses et réplications ultérieures ont accès à la source de données d’origine. La science ouverte modifie la nature du débat sur l’intégrité de la recherche, qui jusque-là était resté largement détaché de l’espace public. 60 à 90 % de l’audience des plateformes scientifiques ouvertes provient de professionnels non académiques et de citoyens privés. Cette diffusion accrue crée de nouvelles responsabilités mais aussi de nouvelles opportunités d’impliquer les acteurs non académiques dans l’esprit de la science citoyenne.
APA, Harvard, Vancouver, ISO, and other styles
6

Louvet, Violaine, Sabrina granger, Roberto Di Cosmo, and François Pellegrini. Vers un catalogue des logiciels issus de la recherche. Ministère de l’enseignement supérieur et de la recherche, 2024. https://doi.org/10.52949/79.

Full text
Abstract:
L’un des objectifs majeurs du collège « Codes sources et logiciels » du comité pour la science ouverte est de contribuer à une meilleure compréhension du rôle du logiciel dans la recherche. Le logiciel de recherche constitue une production scientifique de même importance que les publications et les données : ces trois facettes du savoir académique interagissent les unes avec les autres. De très nombreuses disciplines sont concernées, bien au‐delà des sciences de l’informatique. Par « logiciel de recherche », on entend un logiciel créé, utilisé ou diffusé dans les productions de recherche. L’analyse reprend la définition du logiciel de recherche conçue par le collège. Les communautés scientifiques, les laboratoires et les institutions ont besoin d’identifier et de rendre visibles leurs logiciels pour : - garantir leur archivage et en pérenniser l’accès ; - faciliter leur citation ; - les valoriser, notamment sur le plan scientifique, afin de permettre leur réutilisation ; - faire émerger de nouvelles collaborations. Les logiciels développés dans les laboratoires de recherche étant de natures très diverses, il est nécessaire de mener une réflexion sur les critères de référencement et de conservation. Ainsi, les logiciels liés d’une manière ou d’une autre à une publication doivent être considérés comme particulièrement importants, notamment vis‐à‐vis des aspects de transparence et de reproductibilité. Les critères techniques ne permettent pas à eux seuls d’établir des priorités pertinentes : par exemple, un groupe restreint d’auteurs ou de contributeurs peut être à l’origine d’un logiciel peu complexe et de taille modeste mais dont l’impact académique est majeur. En d’autres termes, le degré de sophistication technique d’un logiciel, ou son nombre d’auteurs ou de contributeurs ne permettent pas, à eux seuls, d’augurer de son impact scientifique. Les institutions et les auteurs de logiciels mobilisent déjà des canaux pour rendre leurs productions visibles : pages dédiées de sites web, plateformes de distribution, etc. Un catalogue de logiciels apporterait aux établissements comme aux individus des services complémentaires, notamment en fournissant un point d’entrée centralisé et des fonctionnalités plus riches que celles des moteurs de recherche généralistes. L’enjeu est double. D’une part, il s’agit d’inscrire la démarche dans un contexte élargi, afin d’identifier les infrastructures et initiatives existantes, en France comme à l’étranger. D’autre part, l’utilisateur final doit être placé au centre du processus : la charge de travail pour les chercheurs doit être réduite au maximum grâce à des processus d’automatisation. Au‐delà des enjeux techniques et fonctionnels, la problématique de l’accompagnement doit être prise en compte dès le début de la réflexion. De nombreux acteurs, aux profils et compétences variés, sont susceptibles de jouer un rôle en lien avec les logiciels. Outre les chercheurs et enseignants‐chercheurs, on peut citer les personnels de soutien à la recherche, les personnels des bibliothèques et les équipes des services de valorisation. La dynamique actuelle autour des données de recherche offre un cadre sur lequel s’appuyer pour mettre en œuvre des actions d’accompagnement et renforcer une culture partagée du logiciel de recherche. Enfin, une approche unifiée, tant sur le plan technique que sur celui de la gouvernance, permettra d’intégrer à la réflexion la question de la stratégie à adopter sur le long terme. Il s’agit en effet de positionner le projet de catalogue en cohérence avec l’écosystème de recherche français, à l’échelle des laboratoires comme des institutions.
APA, Harvard, Vancouver, ISO, and other styles
7

Knabl, Magdalena, Benjamin Rist, and Eberhard Morgenroth. Réutilisation de l’eau en Suisse. Besoins, opportunités, risques et recommandations dérivées à l’attention des responsables. Swiss Federal Institute of Aquatic Science and Technology, Eawag, December 2024. https://doi.org/10.55408/eawag:33722.

Full text
Abstract:
La réutilisation planifiée des eaux usées épurées peut soulager les ressources en eau conventionnelles et réduire la consommation d'eau. Elle constitue une option d'action possible dans la gestion intégrée des ressources en eau, si les avantages dans le contexte local l'emportent sur les dépenses nécessaires (traitement supplémentaire, infrastructure, coûts, énergie). Le présent projet a cherché à savoir si la réutilisation de l'eau pouvait être une option pertinente pour la gestion des ressources en eau en Suisse. Pour ce faire, les données existantes sur la disponibilité et la consommation d'eau ont été analysées et une enquête sur le sujet a été menée auprès des services cantonaux de l'environnement. En raison du changement climatique, les périodes de fortes chaleurs sont de plus en plus fréquentes en Suisse, notamment en été. Les épisodes de sécheresse qui en découlent entraînent une augmentation des besoins en eau pour différentes applications (irrigation pour l'agriculture et dans les villes, eau de refroidissement, etc.). Au niveau local, les représentants de 19 des 26 cantons ont identifié un besoin de réutilisation de l'eau pour diverses applications, en particulier pour l'irrigation. De plus, on s'attend à une augmentation de ces besoins avec le changement climatique en cours. En outre, la réutilisation de l'eau présente des synergies avec d'autres mesures de gestion des ressources en eau, par exemple le stockage de l'eau pour les périodes où les besoins sont plus importants. Bien entendu, la réutilisation de l'eau doit être soumise à des exigences claires en termes de qualité et de quantité utilisable et des directives techniques doivent être établies, afin de ne pas mettre en danger l'homme et l'environnement. De plus, pour que les projets de réutilisation de l'eau puissent être mis en oeuvre avec succès à long terme, l'acceptation sociale doit être garantie. Actuellement, la réutilisation de l'eau n'est pas explicitement réglementée dans le droit suisse ; seule l'irrigation est implicitement interdite, alors que toutes les autres applications sont autorisées, mais sans directives concernant la mise en oeuvre ou la qualité. En outre, la Suisse manque d'expérience, de connaissances et de compétences pour la mise en place de la réutilisation de l’eau. Il est donc recommandé d’acquérir de l’expérience par le biais de projets pilotes et d’évaluer les informations spécifiques au projet (coûts, infrastructure nécessaire, etc.). En parallèle, un processus coordonné d'adaptation de la législation est nécessaire pour encadrer une mise en oeuvre sûre de la pratique en Suisse. Cela permettra de garantir que la réutilisation de l'eau soit une mesure fiable et contrôlée pour la gestion future des ressources en eau.
APA, Harvard, Vancouver, ISO, and other styles
8

Veilleux-Lepage, Yannick, and Emil Archambault. Étude comparative de l’usage des drones par des groupes armés non étatiques au Moyen-Orient. ICCT, May 2023. http://dx.doi.org/10.19165/2022.3.02.

Full text
Abstract:
Le présent rapport examine les programmes de drones de cinq groupes non étatiques opérant au Moyen-Orient: le Hezbollah, le Hamas, le Mouvement Houthi, l’État islamique (EI) et le Parti des travailleurs du Kurdistan (PKK). Contrairement à d’autres groupes armés non étatiques, ces cinq groupes ont démontré une habileté à innover dans leurs tactiques et/ou techniques d’utilisation des drones, ont soutenu un engagement à long terme dans le développement de technologies de drones, et ont prouvé leur capacité à développer des infrastructures de drones. Ces cinq groupes ont développé leurs programmes de drones différemment en termes de délais, de méthodes, de stratégies et de tactiques. Par conséquent, ce rapport rejette l’idée selon laquelle les programmes de drones de tous les groupes non étatiques suivent des parcours de développement identiques. Au contraire, nous soutenons que l’utilisation de drones par un groupe terroriste doit être replacée dans le contexte des objectifs stratégiques globaux de ce même groupe. De ce fait, nous soutenons que les États et les forces militaires qui s’opposent à ces groupes doivent d’abord comprendre ce qu’un groupe en particulier espère accomplir avec des drones afin de cerner pleinement la menace en question et, deuxièmement comprendre les défis spécifiques présentés par l’innovation dans les programmes de drones (par opposition à l’utilisation épisodique de drones). Ce rapport offre de plus un cadre pour l’étude de l’innovation en matière de drones qui n’est pas limité à ces groupes et qui peut également s’appliquer à d’autres groupes à l’avenir, décrivant cinq voies différentes que les groupes non étatiques ont empruntées pour développer la technologie des drones. Cet article apporte trois contributions importantes à l’état des connaissances sur ce sujet grâce à la collecte et à l’analyse systématiques de données empiriques.Tout d’abord, nous suggérons qu’il est nécessaire de recentrer l’attention sur les méthodes d’emploi de drones les plus courantes et empiriquement éprouvées plutôt que sur la menace la plus médiatisée, soit celle des armes de destruction massive (ADM) déployées par des drones. Nous n’avons trouvé aucune preuve qu’un groupe non étatique ait sérieusement tenté de lancer des armes de destruction massive (ADM) en utilisant des drones. Alors que certains éléments indiquent que l’État islamique (EI) ait mené des programmes d’armes de destruction massive (ADM) et de drones en parallèle, rien ne démontre qu’il ait cherché à intégrer les deux. Les experts en sécurité devraient donc concentrer leur attention sur les utilisations empiriquement avérées des drones par des groupes armés non étatiques, ainsi que sur la pluralité des moyens par lesquels les drones peuvent contribuer aux activités de ces groupes. Deuxièmement, les travaux de recherche et de planification de la sécurité doivent se concentrer sur le danger précis que représentent les programmes de drones (par opposition à l’utilisation occasionnelle de drones) et sur le potentiel d’innovation dans l’utilisation des drones. Dans leur lutte contre les programmes de drones, les nations et les forces armées doivent rester concentrées sur l’innovation et l’adaptation. Elles doivent comprendre comment les organisations se développent sur les plans tactique, stratégique et technique. Le développement des drones n’est ni linéaire ni statique. Enfin, ce rapport démontre qu’il n’existe pas de parcours de développement unique concernant l’utilisation des drones par des entités non étatiques, ni de modèle préétabli que ces groupes chercheraient à suivre afin de renforcer leurs capacités. Chaque organisation utilise les drones de façon unique en fonction de son propre ensemble de paramètres logistiques, politiques et stratégiques ; les programmes de drones doivent donc être replacés dans le contexte plus large des moyens et opérations militaires de l’organisation. Par conséquent, les forces armées et les États confrontés aux programmes de drones doivent adopter une approche holistique. S’ils peuvent tirer des enseignements des pratiques existantes ayant connu des degrés divers de réussite dans la lutte contre les menaces liées aux drones et s’engager dans des actions préventives afin d’atténuer la portée des programmes de drones, les approches doivent envisager les programmes de drones non seulement comme une menace distincte et isolée, mais aussi comme une composante d’opérations, de stratégies et de processus de conflit militaires plus larges.
APA, Harvard, Vancouver, ISO, and other styles
9

Les forêts françaises face au changement climatique. Académie des sciences, June 2023. http://dx.doi.org/10.62686/6.

Full text
Abstract:
Les forêts françaises couvrent 31% du territoire métropolitain. Elles contribuent de multiples façons au bien-être humain (production de bois, purification de l’air et de l’eau, maintien des sols, habitat pour la biodiversité, alimentation, santé, activités récréatives, etc.) et participent aux Objectifs de Développement Durable fixés par l’ONU. En particulier, la France s’étant engagée à atteindre la neutralité carbone dès 2050, le rôle de puits et de stockage de carbone des forêts est considéré comme un élément majeur de sa Stratégie Nationale Bas Carbone (SNBC). Depuis quelques années, les forêts françaises, dont la surface n’avait cessé de croître depuis plus d’un siècle, connaissent, de façon inquiétante, une diminution de productivité, des dépérissements massifs et un risque incendie accru. Le changement climatique en cours met ainsi en péril les ressources forestières et leur contribution attendue pour préserver la biodiversité, favoriser le développement rural et la bioéconomie, renforcer la production de bois, assurer le bien-être sociétal et équilibrer le bilan carbone de la France. Les enjeux sont considérables et l’orchestration des mesures à prendre s’avère extrêmement délicate en raison de la diversité des attentes de la société. L’Académie des sciences dresse ici un état des lieux des connaissances actuelles sur les diverses contributions des forêts à la société, puis identifie les défis à relever au regard des menaces actuelles et à venir. Finalement, elle présente un ensemble de recommandations pour assurer simultanément la résilience des forêts, leur rôle de puits de carbone, la production de bois, la préservation de la biodiversité, et la qualité des autres contributions du milieu forestier au bien-être humain. Les recherches scientifiques devront porter sur les connaissances nécessaires à la compréhension du bilan carbone des forêts, l’adaptation du milieu forestier au changement climatique et l’efficience d’utilisation du bois. Des modèles capables de simuler l’évolution des forêts en réponse aux perturbations naturelles et anthropiques ainsi que les pratiques sylvicoles doivent être développés. Les données nécessaires à leur validation (composition des peuplements, biomasse aérienne et souterraine, flux de carbone) doivent être acquises et diffusées largement. La prise en compte des facteurs physico-chimiques, biologiques, économiques et sociaux dans l’évaluation des enjeux liés aux forêts nécessite des études interdisciplinaires. Enfin, une méthodologie vérifiable et transparente de calcul des émissions évitées grâce aux usages du bois est nécessaire pour évaluer la contribution des produits bois aux objectifs de la SNBC. Un effort majeur de gestion forestière est nécessaire pour optimiser à l’échelle nationale l’adaptation des forêts au changement climatique, la production de bois et la préservation de la biodiversité. Ces pratiques doivent être flexibles, évolutives et adaptées au contexte socio-écologique local. Pour gérer les effets du changement climatique par une stratégie sans regrets, la structure des peuplements devra être ajustée en favorisant la sylviculture à couvert continu, en ajustant les densités de peuplement aux conditions hydriques, en augmentant la diversité des essences, en évitant autant que possible les coupes rases dont les impacts écologiques et climatiques sont trop importants, et en conservant des vieux arbres qui sont des refuges pour la biodiversité et représentent un patrimoine génétique à préserver. Le rôle de la filière bois sera crucial pour la réussite de la transition énergétique. La filière devra optimiser son bilan carbone depuis le prélèvement en forêt jusqu’au recyclage des produits bois et des connexes de scierie. Sa réindustrialisation doit être soutenue afin de permettre la transformation du bois français en France, le développement des produits bois à longue durée de vie, la valorisation des bois de feuillus, et une maîtrise à court terme des volumes de produits à courte durée de vie. Les politiques publiques devront accompagner la filière forêt-bois de manière cohérente pour assurer le succès de la transition énergétique. La récente diminution du puits net de carbone des forêts appelle à une révision urgente de la SNBC dont les objectifs ne seront pas tenus. D’autres scénarios doivent être évalués sur un temps long et en s’inscrivant dans une approche écosystémique et multifonctionnelle de la forêt. Enfin la gouvernance forestière devra mieux prendre en compte les intérêts et souhaits des différents acteurs.
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography