To see the other types of publications on this topic, follow the link: Acquisition de données long terme.

Dissertations / Theses on the topic 'Acquisition de données long terme'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 21 dissertations / theses for your research on the topic 'Acquisition de données long terme.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Striegel, Lucas. "Etudes numérique et expérimentale de récupérateurs d’eaux pluviales enterrés géothermiques pour le rafraîchissement passif des bâtiments." Electronic Thesis or Diss., Strasbourg, 2024. https://publication-theses.unistra.fr/restreint/theses_doctorat/2024/STRIEGEL_Lucas_2024_ED269.pdf.

Full text
Abstract:
Face au changement climatique, caractérisé notamment par des périodes caniculaires plus longues et intenses, mais aussi par une disponibilité irrégulière de la ressource en eau, il est nécessaire d’apporter des solutions sobres en consommations énergétiques pour renforcer la résilience des bâtiments. Les cuves de récupération d’eaux de pluie enterrées sont des systèmes de plus en plus exploités qui permettent la gestion et le stockage de l’eau. En y immergeant un échangeur de chaleur, il est possible de profiter de l’effet géothermique de l’eau et du sol environnant pour rafraîchir les bâtiments de façon passive. Ce travail de recherche vise à étudier les performances et la faisabilité de ces systèmes hybrides. Un modèle numérique a été développé et validé grâce aux données recueillies par l’instrumentation de prototypes à l’échelle 1 pendant près de trois ans. L’exploitation du modèle a mis en évidence les facteurs influents du système. Des règles de prédimensionnement pour évaluer la quantité d’énergie potentiellement récupérable ont ensuite été établies. Le modèle du système a ensuite été intégré dans un outil de simulation énergétique du bâtiment pour évaluer les gains en termes de confort des occupants
In the face of climate change, characterized by longer and more intense heatwaves, as well as irregular availability of water resources, it is essential to provide energy-efficient solutions to strengthen the resilience of buildings. Underground rainwater tanks are increasingly being exploited as systems for managing and storing water. By immersing a heat exchanger in the tank, it is possible to harness the geothermal effect of the water and surrounding soil to passively cool buildings. This research aims to study the performance and feasibility of these hybrid systems. A numerical model was developed and validated using data collected from the monitoring of full-scale prototypes over a period of nearly three years. The model was used to highlight the key factors influencing the system. The model was used to identify the factors influencing the system. Presizing rules were then established to assess the amount of energy that could potentially be recovered. The system model was then integrated into a building energy simulation tool to assess the gains in terms of occupant comfort
APA, Harvard, Vancouver, ISO, and other styles
2

Pirotte, Alain. "Court terme et long terme en économétrie : l'apport de la cointégration aux données de panel." Paris 12, 1994. http://www.theses.fr/1994PA122009.

Full text
Abstract:
Les notions de temps calendaire et de temps economique ont souvent ete apprehendee de facon distincte. Les economistes ont rencontre de nombreuses difficultes a les articuler. L'econometrie est venue apporter une solution dans la mesure ou les modeles dynamiques, moyennant certaines hypotheses (stationnarite) sur les proprietes statistiques des series ont permis de combiner les effets de court terme et de long terme tout en donnant une interpretation economique concrete au phenomene analyse. La theorie de la cointerpretation a fourni un cadre general pour rendre coherente la modelisation sur series temporelles et valider l'hypothese de stationnarite habituellement posee dans la modelisation traditionnelle. En effet, elle propose une demarche en plusieurs etapes en commencant tout d'abord par tester l'hypothese de stationnarite des series. On determine ainsi, l'ordre d'interpretation de chacune d'entre elles. Une fois les ordres d'integration des series reperes, il est possible d'obtenir, sous certaines conditions, une relation d'equilibre de long terme stable. Apres avoir verifie cette stabilite, on cale le mecanisme d'ajustement de court terme sur l'erreur d'equilibre de long terme precedemment estimee. On s'assure ainsi de la coherence entre le mecanisme d'ajustement de court terme donne par le modele a correction d'erreur et la trajectoire de long terme. Sur des donnees de panel, la logique de la cointegration ne s'applique pas directement. En effet, malgre la double dimension individuelle et temporelle, cette derniere est le plus souvent finie. Or, les proprietes des methodes d7estimation de la cointegration sont asymptotiques.
APA, Harvard, Vancouver, ISO, and other styles
3

Pic, Xavier. "Algorithmes de codage pour le stockage à long terme d'images numériques sur de l'ADN synthétique." Electronic Thesis or Diss., Université Côte d'Azur, 2024. https://theses.hal.science/tel-04808336.

Full text
Abstract:
L'ADN, de par sa durée de vie élevée (plusieurs siècles), est désormais considéré comme un candidat sérieux pour l'archivage de données dites “froides”, des données rarement consultées qui représentent la majorité de l'espace de stockage actuel (environ 80% de l'espace de stockage global). Cependant, l'ADN est une molécule qui utilise 4 symboles pour coder ses données (A,C,G,T) au lieu du système binaire (0,1) utilisé dans le monde du numérique. Stocker des données dans de l'ADN exige donc de mettre en place des systèmes capables de traduire les données binaires en données dites quaternaires adaptées aux molécules d'ADN. L'objectif de cette thèse est d'étudier de nouvelles techniques d'encodage issues du monde du Deep Learning et de trouver les méthodes permettant d'adapter ces techniques à l'encodage et au décodage, ainsi qu'à la compression et à la décompression d'images sur ADN synthétique
The current digital world is facing a number of issues, some of them linked to the amount of data that is being stored. The current technologies available as an offer to store data are not enough to store the totality of the storage demand. For this reason, new data storage technologies have to be developed. DNA molecules are one of the candidates available for novel data storage methods. The long lifespan of these molecules make it a good fit for the archival of data that is rarely accessed but needs to be stored for long periods of time. This data, often called “cold”, represents approximately 80% of the data in our digital universe. But DNA uses 4 symbols (A,C,G and T) to encode data against the usual binary code (0,1). For this reason, storing data into DNA requires a specific encoding system capable of translating a binary data stream into a quaternary data stream. In this thesis we will focus on new encoding methods from the Deep Learning state of the art, and we will adapt those methods for the encoding, decoding, compression and decompression of images on synthetic DNA
APA, Harvard, Vancouver, ISO, and other styles
4

Dongmo-Kengfack, José Nadège. "Les relations de long terme entre la notation des banques par les agences et leur valorisation." Thesis, Université de Lorraine, 2014. http://www.theses.fr/2014LORR0319/document.

Full text
Abstract:
La particularité et l’originalité de cette recherche résident dans notre choix d’étudier l’influence à long terme de la notation financière sur la valeur des banques plutôt que son impact immédiat sur les cours boursiers des actions. Le contexte de cette recherche est la crise financière de 2007-2008 durant laquelle les valeurs bancaires ont considérablement chuté. En effet, cette crise a renouvelé l’intérêt d’étudier la notation financière et son influence sur les entreprises notées, en particulier lorsqu’il s’agit des banques. Notre interrogation centrale est de savoir comment et dans quelles mesures les notations d’agences contribuent à expliquer la valorisation des banques à long terme. La notation des banques par les agences influence-t-elle leur performance, leur gouvernance, leur structure de financement, et par conséquent, leur valeur? Est-elle réciproquement influencée par la valorisation des banques sur le marché? Notre recherche s’inscrit donc dans le prolongement des travaux qui montrent l’influence de la note sur la valeur des entreprises, mais notre démarche est différente. D'une part, nous nous concentrons uniquement sur le secteur bancaire qui est particulier, et où l’influence de la notation peut être différente et plus forte que sur les entreprises ou groupes industriels. D'autre part, nous mobilisons l’approche financière de la gouvernance qui met en évidence le lien entre la gouvernance et la valorisation des entreprises (Charreaux G., 1997 ; Gompers et al., 2003 ; Rob Bauer et al., 2003 ; Barth, Caprio et Levine, 2004 ; Levine, 2004), et la théorie néo-institutionnelle développée par Meyer et Rowan (1977), Scott et de Meyer (1983), DiMaggio et Powell (1991, 1997) et North (1990). Cette deuxième théorie met en évidence l’influence des institutions sur les organisations, leur gestion et leur performance. En combinant ces deux approches, nous explorons et analysons les voies par lesquelles les notations des agences peuvent influencer la valeur des entreprises bancaires à long terme, notamment en les incitant à se conformer à un modèle de bonnes pratiques sous-jacent aux critères que les agences de notation affichent pour les évaluer. Nous cherchons à valider empiriquement cette analyse au travers d'une approche quantitative et économétrique, en utilisant des données internationales tirées des bases Bloomberg, Bankscope et Fininfo relatives à 161 grandes banques de 18 pays, sur les années 2001 à 2010. Après avoir construit des indicateurs homogènes de notation, la validation de nos hypothèses de recherche repose sur des analyses bivariées, des régressions sur les données de panel, des tests de causalité de Granger et un modèle Logit polytomique. Nos résultats montrent qu’un cran supplémentaire, c’est-à-dire une dégradation d'un cran de la note de solidité financière semble entraîner une diminution significative de la valeur des banques. Ce lien n’est pas significatif en période de crise. L’effet de la notation de crédit sur la valorisation est peu significatif. Cependant, les tests de causalité de Granger montrent une boucle rétroactive entre la notation de crédit, le coût moyen pondéré des dettes et la taille des banques. Les résultats d'un modèle Logit polytomique montrent que les notes de solidité financière attribuées par les agences ne sont influencées par les indicateurs de valorisation des banques qu'après le déclenchement de la crise des « Subprimes » couverte par notre période d’étude (en 2008 et 2009)
The distinctiveness and uniqueness of this research lies in the fact that it studies the long-term effects of credit rating on the value of banks rather than its immediate impact on the shares’ market price. The context of this research is the subprime crisis period of 2007-2008 during which banking stocks declined dramatically. This crisis caused a reawakening of interest in the study of credit rating and its impact on rated companies, especially when the rated companies are banks. The central question is to know how and to what extent credit rating helps to explain the long-term valuation of banks. How does the bank rating affect their performance, their governance, their capital structure, and therefore their value? Reciprocally, how does banks valuation impact their credit ratings? Our research follows the path of previous studies showing the impact of credit rating on the value of companies, but our approach is different. On one hand we focus only on the banking sector which is particular, and where the impact of credit rating can be different and stronger than on the other companies or industrial groups. On other hand we mobilize corporate governance approach that highlights the link between governance and valuation (Charreaux G., 1997; Gompers et al., 2003, Rob Bauer et al., 2003; Barth, Caprio and Levine, 2004; Levine, 2004). We also mobilize the neo-institutional theory developed by Meyer and Rowan (1977), Scott and Meyer (1983), DiMaggio and Powell (1991, 1997) and North (1990) that highlights the impact of institutions on organizations, their management and performance. These two approaches allow us to describe and analyze the ways and means by which credit rating can impact banks values in the long term, particularly by inspiring banks to use the “best practices” disseminated in the rating methodologies for banks. We try to empirically validate this analysis through a quantitative and econometric approach, using data from international databases such as Bloomberg, Bankscope and Fininfo about 161 large banks from 18 countries over the period 2001 to 2010. After building uniform credit rating indicators, we use bivariate analysis, regressions on panel data, Granger causality tests and multinomial logit model to test our assumptions. Our results show that one notch downgrade of a bank financial strength rating seems to cause a significant decrease of its valuation. This impact is not significant in a crisis period. The effect of the issuer credit rating on bank valuation is not significant. However, Granger causality tests show a feedback loop between the issuer credit rating, the weighted average cost of debt and the size of banks. The results of a logit multinomial model show that the bank financial strength ratings assigned by the rating agencies are influenced by the bank valuation indicators only for the years 2008 and 2009
APA, Harvard, Vancouver, ISO, and other styles
5

Rakotonjanahary, Ndrianjaka Josué. "Suivi à long terme des enfants traités pour gliome des voies optiques par chimiothérapie première BB-SFOP : survie à long terme - perte de la vision - outil d'interprétation des données IRMs." Thesis, Strasbourg, 2018. http://www.theses.fr/2018STRAJ116.

Full text
Abstract:
Les gliomes des voies optiques (GVO) sont des tumeurs bénignes pouvant être observées durant l’enfance. La prise en charge des GVO a évolué durant ces dernières décennies en évitant la radiothérapie et en donnant une place plus importante à la chimiothérapie. L’IRM est un des éléments fondamentaux dans la prise en charge. Cependant, les mesures tumorales sont soumises à des importantes variabilités inter et/ou intra-observateur. Pour mieux comprendre le devenir à long terme des enfants traités par chimiothérapie initiale, le devenir des enfants traités en France pour GVO par chimiothérapie initiale BB-SFOP a été évalué. Un outil standardisé permettant des interprétations fiables et reproductibles des IRMs a été créé et validé. La survie globale de ces patients montre un plus mauvais pronostic à long terme. Certains facteurs cliniques et radiologiques sont également associés à une perte de la vision observée à long terme. Ces découvertes pourraient justifier la mise en place d’une prise en charge adaptée en fonction du niveau de risque
Optic Pathway Gliomas (OPG) are benign tumors that typically develop during early childhood. The management of patients varied throughout the last decades and was characterized by an emphasis on avoiding the use of radiotherapy. The role of chemotherapy in the management of OPG has increased. MRI is one of the fundamental elements of the management of these children. However, the tumor measurements are subject to inter and/or intraobserver variations. In an attempt to better understand the long-term outcomes of children treated with initial chemotherapy, long-term outcomes of OPG treated in France with up-front BB-SFOP chemotherapy were evaluated. A standardized and reproducible imaging classification for MRI that can be used as a reliable monitoring tool for patients with OPG was created and validated. The long-term outcomes of these patients showed a poorer prognosis for overall survival. Some clinical and radiological factors were associated with long-term vision loss. These findings could justify a risk-based approach to this tumor
APA, Harvard, Vancouver, ISO, and other styles
6

Dhomps, Anne-Lise. "Améliorations des méthodes de combinaison des données Argo et altimétrie pour le suivi des variations à long terme de l'océan." Toulouse 3, 2010. http://thesesups.ups-tlse.fr/1299/.

Full text
Abstract:
L'objectif de cette thèse est d'analyser la variabilité océanique en température et salinité sur la période 1993-2008. Pour cela, nous utilisons des données in situ de température et de salinité, et des données satellites de température de surface de l'eau et de hauteur de mer. Plusieurs étapes sont indispensables : créer une base de données solide et cohérente, comparer les jeux de données, puis développer des méthodes de combinaison afin d'assembler les jeux de données. L'intercomparaison des jeux de données Altimétrique et Argo permet dans un premier temps de vérifier la qualité du jeu de données Argo. Le jeu de données Argo permet d'améliorer les comparaisons effectuée par Guinehut et al, (2006) sur la comparaison entre les hauteurs de mer altimétriques et hydrologiques. Nous expliquons pourquoi et détaillons les améliorations. Nous étudions également l'impact du retrait du cycle saisonnier et l'influence de la structure verticale de l'océan dans la répartition barotrope/barocline de la circulation. Nous terminons sur l'analyse de la circulation saisonnière et inter-annuelle à 1000 mètres de profondeur. Les champs Armor3d, combinaison de champs satellites et de profils in situ existent depuis plusieurs années. Le récent jeu de données fourni par les flotteurs Argo permet de considérablement améliorer les paramètres de la combinaison, de couvrir une meilleure zone géographique et d'avoir des champs plus profonds. Nous montrons que les deux types de mesures sont indispensables, même pour étudier la variabilité grande échelle de l'océan. Enfin, nous utilisons nos champs Armor3d pour étudier la variabilité océanique des 16 dernières années
The objective of this thesis is to analyze the oceanic variability in temperature and salinity over the period 1993-2008. For that purpose, it is necessary to use the maximum of observations available, namely in situ data of temperature and salinity, but also satellite data of sea surface temperature and sea height. To reach our objective, several steps are necessary: create a solid and coherent database, compare datasets to have a better physical understanding of the contents of every type of data then develop methods of combination to assemble the datasets. The cross-comparison of the altimetric and Argo datasets allows at first to verify the quality of the Argo dataset. In 2006, Guinehut and al published a paper on the comparison of SLA (Sea Level Anomaly) and DHA (Dynamic Height Anomaly). Today, the Argo dataset allows improving the comparisons. We explain why and we detail the differences between both studies. We also study the impact of the removal of the seasonal cycle and the influence of the vertical structure of the ocean in the barotrope / barocline distribution of the oceanic circulation. We end on the analysis of the SLA-DHA signal in term of seasonal and inter-annual circulation at 1000 meters deep. Armor3d Field, combination of satellite fields and in situ profiles exist for several years. The recent dataset supplied by Argo profilers allows improving considerably the parameters of the combination, to cover a better geographical zone and to have deeper fields. We show that both types of measures are needed, even to study the large scale variability of the ocean. Finally, we use our Armor3d fields to study the oceanic variability of the last 16 years
APA, Harvard, Vancouver, ISO, and other styles
7

Choffin, Benoît. "Algorithmes d’espacement adaptatif de l’apprentissage pour l’optimisation de la maîtrise à long terme de composantes de connaissance." Electronic Thesis or Diss., université Paris-Saclay, 2021. http://www.theses.fr/2021UPASG001.

Full text
Abstract:
Entre acquérir de nouvelles connaissances et revoir les anciennes pour en atténuer l’oubli, les apprenants peuvent avoir du mal à organiser efficacement leur temps d’apprentissage. Les algorithmes d’espacement adaptatif de l’apprentissage, tels SuperMemo, permettent d’aider les apprenants à résoudre cet arbitrage. Ces algorithmes planifient les révisions successives d’une même connaissance de manière optimale et personnalisée en tenant compte des besoins de chaque apprenant. Comparé à un espacement temporel entre les révisions identique pour tous les individus, plusieurs expériences montrent que l’espacement adaptatif maintient un plus haut degré d’ancrage en mémoire à long terme des informations apprises.Jusqu’ici, la recherche sur l’espacement adaptatif de l’apprentissage s’est concentrée sur la mémorisation pure de connaissances simples, représentées souvent par le biais de flashcards. Or, plusieurs études en psychologie cognitive montrent que les bénéfices de l’espacement de l’apprentissage sur la mémorisation à long terme s’étendent aussi à des connaissances plus complexes, telles que l’apprentissage de concepts et de procédures en mathématiques. Dans cette thèse, nous avons donc cherché à développer des algorithmes d’espacement adaptatif et personnalisé de l’apprentissage de composantes de connaissance (CC).Dans un premier temps, nous proposons un nouveau modèle statistique de l’apprentissage et l’oubli de CC, appelé DAS3H, et montrons empiriquement qu’il possède de meilleures performances prédictives que plusieurs modèles de l’apprenant en fouille de données éducatives. Ensuite, nous développons plusieurs heuristiques d’espacement adaptatif pour la maîtrise à long terme de CC et comparons leurs performances sur des données simulées. Deux de ces heuristiques reposent sur le modèle DAS3H pour sélectionner la CC à faire réviser à un instant donné. Nous proposons en outre une nouvelle procédure gloutonne pour sélectionner le sous-ensemble de CC le plus prometteur au lieu de la meilleure CC à faire réviser. Enfin, dans le dernier chapitre de cette thèse, nous développons AC4S, un algorithme d’apprentissage par renforcement profond pour l’espacement adaptatif de l’apprentissage de CC. Nous comparons cette approche fondée sur les données à nos méthodes heuristiques, présentées précédemment
Between acquiring new knowledge and reviewing old knowledge to mitigate forgetting, learners may find it difficult to organize their learning time effectively. Adaptive spacing algorithms, like SuperMemo, can help learners deal with this trade-off. Such algorithms sequentially plan reviews of a given piece of knowledge to adapt to the specific and ongoing needs of each learner. Compared to a fixed and identical temporal spacing between reviews, several experiments have shown that adaptive spacing improves long-term memory retention of the piece of knowledge.To date, research on adaptive spacing algorithms has focused on the pure memorization of simple pieces of knowledge, which are often represented by flashcards. However, several studies in cognitive psychology have shown that the benefits of spacing out learning episodes on long-term retention also extend to more complex knowledge, such as learning concepts and procedures in mathematics. In this thesis, we have therefore sought to develop adaptive and personalized spacing algorithms for optimizing long-term mastery of knowledge components (KCs).First, we develop and present a new statistical model of learning and forgetting of knowledge components, coined DAS3H, and we empirically show that DAS3H has better predictive performance than several learner models in educational data mining. Second, we develop several adaptive spacing heuristics for long-term mastery of KCs and compare their performance on simulated data. Two of these heuristics use the DAS3H model to select which KC should be reviewed by a given learner at a given time. In addition, we propose a new greedy procedure to select the most promising subset of KCs instead of the best KC to review. Finally, in the last chapter of this thesis, we develop AC4S, a deep reinforcement learning algorithm for adaptive spacing for KCs. We compare this data-driven approach to the heuristic methods that we presented previously
APA, Harvard, Vancouver, ISO, and other styles
8

Dimopoulou, Melpomeni. "Techniques de codage pour le stockage à long terme d’images numériques dans l’ADN synthétique." Thesis, Université Côte d'Azur, 2020. http://www.theses.fr/2020COAZ4073.

Full text
Abstract:
L’explosion de la quantité de données est l’un des plus grands défis de l'évolution numérique, entraînant une croissance de la demande de stockage à un rythme tel qu'elle ne peut pas rivaliser avec les capacités réelles des périphériques. L'univers numérique devrait atteindre plus de 175 zettaoctets d'ici 2025, tandis que le 80% de ces données est rarement consultée (données froides), mais archivée sur des bandes magnétiques pour des raisons de sécurité et de conformité réglementaire. Les dispositifs de stockage conventionnels ont une durée de vie limitée de 10 à 20 ans et doivent donc être fréquemment remplacés pour garantir la fiabilité des données, un processus qui est coûteux en termes d'argent et d'énergie. L'ADN est un candidat très prometteur pour l'archivage à long terme de données « froides » pendant des siècles voire plus à condition que l'information soit encodée dans un flux quaternaire constitué des symboles A, T, C, G, pour représenter les 4 composants de la molécule d'ADN, tout en respectant certaines contraintes d'encodage importantes. Dans cette thèse, nous présentons de nouvelles techniques de codage pour le stockage efficace d'images numériques dans l'ADN. Nous avons implémenté un nouvel algorithme de longueur fixe pour la construction d'un code quaternaire robuste qui respecte les contraintes biologiques et proposé deux fonctions de "mapping" différentes pour permettre une flexibilité par rapport aux besoins d'encodage. De plus, l'un des principaux défis du stockage des données dans l’ADN étant le coût élevé de la synthèse, nous faisons une toute première tentative pour introduire une compression contrôlée dans la solution de codage proposée. Le codec proposé est compétitif par rapport à l'état de l'art. En outre, notre solution de codage / décodage de bout en bout a été expérimentée dans une expérience de laboratoire humide pour prouver la faisabilité de l'étude théorique dans la pratique
Data explosion is one of the greatest challenges of digital evolution, causing the storage demand to grow at such a rate that it cannot compete with the actual capabilities of devices. The digital universe is forecast to grow to over 175 zettabytes by 2025 while 80% is infrequently accessed (“cold” data), yet safely archived in off-line tape drives due to security and regulatory compliance reasons. At the same time, conventional storage devices have a limited lifespan of 10 to 20 years and therefore should be frequently replaced to ensure data reliability, a process which is expensive both in terms of money and energy. Recent studies have shown that due to its biological properties, DNA is a very promising candidate for the long-term archiving of “cold” digital data for centuries or even longer under the condition that the information is encoded in a quaternary stream made up of the symbols A, T, C and G, to represent the 4 components of the DNA molecule, while also respecting some important encoding constraints. Pioneering works have proposed different algorithms for DNA coding leaving room for further improvement. In this thesis we present some novel image coding techniques for the efficient storage of digital images into DNA. We implemented a novel fixed length algorithm for the construction of a robust quaternary code that respects the biological constraints and proposed two different mapping functions to allow flexibility according to the encoding needs. Furthermore, one of the main challenges of DNA data storage being the expensive cost of DNA synthesis, we make a very first attempt to introduce controlled compression in the proposed encoding workflow. The, proposed codec is competitive compared to the state of the art. Furthermore, our end-to-end coding/decoding solution has been experimented in a wet lab experiment to prove feasibility of the theoretical study in practice
APA, Harvard, Vancouver, ISO, and other styles
9

Troude, Pénélope. "Devenir à long terme de couples traités par fécondation in vitro dans la cohorte DAIFI." Phd thesis, Université Paris Sud - Paris XI, 2013. http://tel.archives-ouvertes.fr/tel-00933360.

Full text
Abstract:
Les études sur les couples traités par fécondation in vitro (FIV) ont jusqu'à présent porté essentiellement sur l'évaluation du succès en FIV. Très peu de données sont disponibles sur le devenir à long terme de couples traités par FIV. L'objectif de ce travail était d'estimer la fréquence de réalisation du projet parental à long terme, et d'étudier les facteurs associés aux interruptions précoces des traitements et aux naissances naturelles.L'enquête DAIFI-2009 a inclus 6 507 couples ayant débuté un programme de FIV en 2000-2002 dans l'un des 8 centres de FIV participant à l'étude. Les données médicales des couples et leur parcours dans le centre ont été obtenus à partir des dossiers médicaux des centres de FIV pour tous les couples. L'information sur le devenir des couples après le départ du centre a été obtenue par questionnaire postal auprès des couples en 2008-2009 (38% de participation 7 à 9 ans après l'initiation des FIV). L'étude des facteurs associés à la participation à l'enquête postale suggérait que la fréquence de réalisation du projet parental estimée sur les répondants seulement pourrait être biaisée. Les différentes méthodes mises en œuvre pour corriger la non réponse (pondération, imputation multiple) n'ont pas modifié l'estimation de la fréquence de réalisation du projet parental. Au total, 7 à 9 ans après l'initiation des FIV, 60% des couples ont réalisé leur projet parental de façon biologique, suite à un traitement ou suite à une conception naturelle. Lorsque les adoptions sont aussi prises en compte, 71% des couples ont réalisé leur projet parental. Après l'échec d'une première tentative de FIV, un couple sur 4 (26%) a interrompu les FIV dans le centre d'inclusion. Globalement, les couples avec de mauvais facteurs pronostiques ont un plus grand risque d'interrompre les FIV. Cependant, la proportion plus importante d'interruption parmi les couples avec une origine inexpliquée de l'infécondité pourrait s'expliquer par la survenue plus fréquente de naissance naturelle dans ce sous-groupe de couples. Parmi les couples n'ayant pas eu d'enfant suite aux traitements, 24% ont ensuite conçu naturellement en médiane 28 mois après l'initiation des FIV. Parmi les couples ayant eu un enfant suite aux traitements, 17% ont ensuite conçu naturellement en médiane 33 mois après la naissance de l'enfant conçu par AMP. Les facteurs associés aux naissances naturelles sont des indicateurs d'un meilleur pronostic de fertilité, particulièrement chez les couples sans enfant AMP.L'enquête DAIFI-2009 a permis d'apporter des informations sur le parcours à long terme des couples traités par FIV qui n'avait jusqu'à présent été que peu étudié, souvent sur de faibles effectifs et avec un suivi plus court. Ces résultats doivent apporter de l'espoir aux couples inféconds, puisque la majorité d'entre eux ont finalement réalisé leur projet parental, même si cela peut prendre de nombreuses années.
APA, Harvard, Vancouver, ISO, and other styles
10

Rodriguez, Chavez Mario-Luis. "Anticipation de l'accès à la ressource granulats par rupture des schémas actuels à long terme." Phd thesis, École Nationale Supérieure des Mines de Paris, 2010. http://pastel.archives-ouvertes.fr/pastel-00563707.

Full text
Abstract:
L'objectif de ce travail est d'anticiper l'accès à la ressource granulats au-delà des schémas actuels à long terme en France. Cette thèse, qui s'inscrit dans le cadre du projet ANR " ANTAG ", a principalement pour but la création et l'exploitation d'un système d'aide à la décision pour le marché national des granulats permettant de simuler les effets à l'échelle de 30 ans de décisions liées à l'approvisionnement des granulats et au développement de la consommation et du transport. L'approche suivie s'appuie sur un modèle de type top-down, macro-économique et il est fondé sur le principe de modélisation System Dynamics. L'apport principal est le mécanisme qui décrit l'équilibre du marché entre les sources d'approvisionnement par distribution de la surcapacité sur les sources d'approvisionnement et qui permet de modéliser et de piloter la compétition entre les acteurs. Un scénario de base, construit à partir de données historiques, sert à concevoir sept scénarios provoqués par des " actions de rupture " qui sont analysés en termes d'évolution des variables clés économiques et environnementales. La puissance du modèle réside dans sa capacité à s'enrichir de nouvelles fonctionnalités permettant d'introduire de nouveaux mécanismes secondaires.
APA, Harvard, Vancouver, ISO, and other styles
11

Giusti, Marion. "Apport des données hydroacoustiques pour l'étude de la sismicité de la dorsale médio-Atlantique nord." Thesis, Brest, 2019. http://www.theses.fr/2019BRES0023/document.

Full text
Abstract:
Les dorsales océaniques sont caractérisées par une sismicité de faible magnitude, induite par une succession d’épisodes volcaniques et tectoniques. Le déploiement de réseaux d’hydrophones autonomes le long de grandes sections de dorsales permet d’enregistrer cette sismicité peu détectable par les stations terrestres. Dans l’océan Atlantique Nord, de nombreuses expériences hydroacoustiques ont été conduites depuis 1999, donnant accès à des séries d’observations temporelles sur plusieurs années. La présente thèse s’inscrit dans ce contexte, avec l’acquisition et le traitement de nouvelles données. L’analyse de catalogues télésismiques et hydroacoustiques, couplés à des données bathymétriques et gravimétriques, a contribué à la caractérisation des processus d’accrétion actifs le long de la dorsale médio-Atlantique Nord. Les travaux réalisés lors de cette thèse ont permis de : (1) rechercher des paramètres responsables d’une différence de sismicité entre des groupes de segments de la dorsale médio-Atlantique ; (2) proposer une nouvelle limite sud d’influence du point chaud des Açores ; (3) identifier et caractériser différents types de processus d’accrétion à partir de la recherche de crises sismiques ; (4) mettre en évidence une crise magmatique de grande ampleur et une intrusion magmatique à travers une discontinuité non-transformante ; et (5) proposer un schéma de répartition des processus d’accrétion dominants le long de l’axe de la dorsale médio-Atlantique Nord, à partir d’une analyse spatiotemporelle de la sismicité. L’ensemble de ces résultats montre l’importance des catalogues de sismicité à grande étendue spatiale et temporelle pour approfondir notre connaissance : sur la dynamique des segments de dorsale et les interactions entre l’axe de la dorsale et le point chaud, et d’autre part, sur la récurrence des processus d’accrétion
The mid-ocean ridge is caracterised by a seismicity of low magnitude generated by multiple volcanic and tectonic episodes. Autonomous hydrophones arrays along large ridge sections are efficient to record low seismicity contrary to landbased stations. In the northern Atlantic Ocean, several hydroacoustic experiments have been realised since 1999 that supply long term records.This thesis is based on the acquisition and the treatment of new data. The analysis of teleseismic and hydroacoustic catalogues combined with bathymetric and gravimetric data, have contributed to the characterisation of accretionary processes along the northern Mid-Atlantic Ridge. This PhD work allowed : (1) to research parameters responsable of a seismicity difference between groups of Mid-Atlantic Ridge segments; (2) to propose a new southern limit of the Azores hotspot influence ; (3) to identify and define different types of seafloor spreading processes based on seismic crisis interpretations ; (4) to highlight a large magmatic crisis and a magmatic intrusion across a non-transform discontinuity ; and (5) to propose dominant seafloor spreading processes from a spatio-temporal seismicity analysis along the northern Mid-Atlantic Ridge. The entire study shows the value of large spatial and temporal seismicity catalogues to broaden our knowledge on : the dynamic of the ridge segments, the interactions between the ridge axis and the hotspot and the recurrence of the seafloor spreading processes
APA, Harvard, Vancouver, ISO, and other styles
12

Klotz, Rémi. "Analyse sur le long terme des complications médicales chez les blessés médullaires tétraplégiques vivant à domicile : données de l'enquête TETRAFIGAP sur 1668 patients." Bordeaux 2, 1998. http://www.theses.fr/1998BOR23029.

Full text
APA, Harvard, Vancouver, ISO, and other styles
13

Meneses-Provoste, Gianina. "Analyse à court et long terme de la déformation de la plaque supérieuredans la zone de subduction du nord du Chili avec des données GPS et d'inclinométrie." Thesis, Paris Sciences et Lettres (ComUE), 2018. http://www.theses.fr/2018PSLEE022/document.

Full text
Abstract:
Les zones de subduction impliquent le recyclage de la lithosphère océanique dans le manteau convectif pour former une croûte continentale par migration ascendante de la partie fondue du slab. Ce processus à long terme, où la plaque supérieure accumule des contraintes qui sont instantanément libérées sous la forme de séismes, se répète sur un processus cyclique : le cycle sismique de subduction (SEC). Néanmoins, le glissement rapide sur les failles n'est pas le seul processus contribuant à la déformation pendant le SEC. Des processus de glissement asismique sont observés sous la forme de creeping constant et de glissement lent transitoire. Exemple du dernière est le phénomène d'afterslip et les slow slip events (SSE) dont la durée est beaucoup plus longue que les séismes "normaux". De la même importance est l'effet du stress induit par un sésime dans le manteau. Parce qu'il se comporte comme un corps viscoélastique, le manteau détend ce stress au cours d'un processus de déformation lent de longue durée et à grande échelle. Tous ces phénomènes ont un impact sur la déformation de la plaque supérieure et doivent être pris en compte dans l'analyse du budget de glissement sur le SEC afin d'obtenir l'estimation réelle du risque sismique d'une région. En partant de cette prémisse, la principale motivation de ce travail est de contribuer à la détermination de l'état actuel de couplage de l'interface sismique de la zone nord de la subduction chilienne. La majeure partie de cette étude a été menée dans deux directions : l'analyse et l'interprétation des déformations transitoires à court terme (jours, semaines) et à long terme (années) détectées par les stations GPS permanentes déployées au nord du Chili. Premièrement, en recherchant de façon exhaustive les signaux transitoires à court terme dans des séries géodésiques, nous cherchons à contribuer au débat actuel sur la question de savoir si des glissements lents se produisent dans la zone de subduction chilienne ou non. Jusqu'à présent, un seul cas de glissement lent associé à la phase de nucléation d'Iquique 2014 a été rapporté. Nos résultats, obtenus après filtrage et analyse approfondie des séries temporelles consacrées à la réduction de leur bruit inhérent, indiquent l'existence de seulement 3 événements susceptibles de correspondre à de petits épisodes de glissement sismique. Ils se produisent entre 2009 et 2011, avec des durées de quelques semaines et des amplitudes qui ne dépassent pas 4 mm. De plus, l'occurrence de l'épisode de glissement sismique plus important simultané à l'activité du séisme d'Iquique 2014 est confirmée, et l'analyse est poussée plus loin à l'aide d'enregistrements par inclinomètres à longue base. Grâce à cette analyse affinée et à la sensibilité de cet instrument, 4 événements de glissement lent dist incts peuvent être identifiés dans la plus grande région de glissement lent révélée par les données GPS, survenant au cours des 3 mois précédant le choc principal avec des magnitudes comprises entre Mw 5,8 et 6,2. Enfin, une analyse à long terme a été effectuée afin d'identifier les changements mineurs mais significatifs des tendances sur de longues périodes. Les données disponibles indiquent une diminution à long terme de la déformation de la plaque supérieure après le séisme de profondeur moyenne de Tarapaca 2005 (Mw 7.7). Nous testons l'effet viscoélastique de l'asthénosphère sur la déformation de surface déclenchée par une rupture profonde (~ 100 km). Pour cela, nous construisons un modèle 3D viscoélastique réaliste d'éléments finis viscoélastiques et avons essayé les rhéologies viscoélastiques de Maxwell et Burgers. Nous trouvons une très bonne correspondance entre le signal postsismique observé associé à cet événement et la déformation postsismique modélisée en utilisant une rhéologie de Burgers avec une viscosité long terme de 1.9e+18 Pa s, contestant l'hypothèse d'une diminution du couplage interséismique conduisant finalement à le mégathrust d'Iquique
Subduction zones involve the recycling of oceanic lithosphere in the convective mantle to form continental crust by upward migration of the melted part of the slab. In this long-term process, the upper plate accumulate stresses that are instantaneously released in the form of earthquakes, repeating over a cyclic process: the subduction earthquake cycle (SEC). Nevertheless, fast slip on faults is not the only process contributing to the deformation during the SEC. For instance, the low frequency process of aseismic slip is observed in the form of steady fault creeping and transient slow slip. Examples of the latest are the phenomenon of afterslip, and slow slip earthquakes (SSEs) with much longer durations than ''normal'' earthquakes. Of the same importance is the effect of stress induced by an earthquake in the mantle. Because it behaves like a viscoelastic body, the mantle will relax this stress during a slow, long-lasting (up to decades) and large-scale (up to thousands of km) deformation process. All these phenomena impact the upper plate deformation and have to be considered in slip budget analysis over the SEC in order to obtain the real estimation of the seismic hazard of a region. Following this premise, the principal motivation of this work is to contr ibute to the determination of the actual locking state of the north seismic gap of the Chilean subduction zone. The main part of this study was conducted along two directions: analyzing and interpreting both short-term (days, weeks) and long-term (several years) transient deformations detected by permanent GPS stations deployed in north Chile. First, with an exhaustive search for short-term transient signals in 15-years long geodetic time series, we aim at contributing to the current debate of whether slow slip events do occur in the Chilean subduction zone or not. Up to now, only a single and debated case of slow slip associated to the nucleation phase of Iquique 2014 has been reported. Our results, obtained after thorough filtering and analysis of the times series devoted to reduce their inherent noise, indicate the existence of only 3 events that are likely to correspond to small episodes of aseismic slip. They occur between 2009 and 2011, with durations of few weeks and amplitudes that do not exceed 4 mm. Additionally, the occurrence of the larger aseismic slip episode simultaneous to the foreshock activity of Iquique 2014 earthquake is confirmed, and the analysis is pushed further with the help of long-base tiltmeter records. Thanks to this refined analysis and to the sensitivity of this instrument, 4 distinct slow slip events can be identified in the larger region of slow slip revealed by GPS data, occurring during the 3 months previous to the mainshock with magnitudes ranging between Mw 5.8 and 6.2. Finally, a longterm analysis of the same cGPS time series was conducted in order to identify small but significant changes of trends over long durations. Available data indicate a long-term decrease of the upper plate deformation after the intermediate depth earthquake of Tarapaca 2005 (Mw 7.7). We test the viscoelastic effect of the asthenosphere on surface deformation triggered by deep failure (~ 100 km depth). For this, we build a realistic 3D viscoelastic finite element model and tried Maxwell and Burgers viscoelastic rheologies. We find a very good correspondence between the observed postseismic signal associated to this event and the modeled postseismic deformation using a Burgers rheology with a long-term viscosity of 1.9e+18 Pa s, challenging the hypothesis of a decrease of interseismic coupling eventually leading to the megathrust failure of Iquique
APA, Harvard, Vancouver, ISO, and other styles
14

Blanc-Lapierre, Audrey. "Effets chroniques des pesticides sur le système nerveux central : données épidémiologiques en milieu agricole." Thesis, Bordeaux 2, 2012. http://www.theses.fr/2012BOR21958/document.

Full text
Abstract:
Compte-tenu de l’importance des populations exposées, les effets à long terme des pesticides sont un enjeu de santé publique majeur. Leur étude pose néanmoins des problèmes méthodologiques complexes. Notre objectif était de contribuer à la connaissance des effets chroniques des pesticides sur le système nerveux central en explorant par une approche épidémiologique innovante le rôle des insecticides organophosphorés dans l’apparition de troubles cognitifs. Nous avons développé et utilisé deux outils de mesure de l’exposition (une matrice culture-exposition : PESTIMAT, et des algorithmes basés sur des études de terrain : PESTEXPO) afin d’estimer l’exposition à 34 insecticides organophosphorés utilisés en vigne, en considérant pour chaque individu l’ensemble des tâches viticoles exposant aux pesticides (préparation, application, nettoyage, réentrée) réalisées au cours de sa vie. Ces outils ont été appliqués dans le cadre du premier suivi (2001-2003) de la cohorte PHYTONER constituée en 1997 par l’inclusion de 925 affiliés à la Mutualité Sociale Agricole de Gironde. L’exposition aux organophosphorés définie par des index cumulés à l’aide de nos deux outils était associée à une baisse des performances cognitives, de manière plus marquée pour les tests explorant la mémoire de travail visuelle et la vitesse de traitement de l’information. Les niveaux de risque variaient en fonction des organophosphorés et étaient plus marqués pour le mévinphos. Cette thèse a confirmé le risque de troubles cognitifs chez les utilisateurs professionnels de pesticides et pose la question d’une évolution ultérieure vers une démence. Elle a également démontré la faisabilité et la pertinence d’une approche s’attachant à établir des scores d’exposition à des matières actives pesticides spécifiques pour en analyser les effets de santé
Given the number of exposed persons, long term effects of pesticides are a foremost Public Health concern. However their study raises complex methodological issues. Our objective was to contribute to the knowledge of the pesticide chronic effects on the central nervous system by exploring the role of organophosphate insecticides in occurence of cognitive disorders by an innovative epidemiological approach. Two exposure assessment tools were developed (a crop exposure matrix: PESTIMAT and algorithms based on field studies: PESTEXPO) to estimate the lifetime cumulated exposure to 34 organophosphate insecticides used in vineyards, taking into account pesticide exposure during tasks (mixing, spraying, cleaning, re-entry) performed by wine-growers. These tools were used in the framework of the first follow-up (2001-2003) of the PHYTONER cohort, initiated in 1997 by the enrollment of 925 workers affiliated to the farmer health insurance system in Gironde, France. Cumulative organophosphate exposure defined by an index using the two tools was associated with poor cognitive performances, particularly for tests exploring the visual working memory and the processing speed. Risk level varied depending on the organophosphate, and was more pronounced for mevinphos. This thesis supports the hypothesis that cognitive impairment may be associated with pesticide occupational use and raises the question of a further evolution towards dementia. It also demonstrated the feasibility and the relevance of an approach based on chemical specific exposure scores to analyze health effects
APA, Harvard, Vancouver, ISO, and other styles
15

Fargevieille, Amélie. "Sélection sexuelle et évolution des ornements femelles : une étude de la coloration du plumage femelle utilisant des analyses comparatives et des jeux de données à long terme issus de populations de mésange bleue (Cyanistes caeruleus)." Thesis, Montpellier, 2016. http://www.theses.fr/2016MONTT127/document.

Full text
Abstract:
Les traits ornementaux sont classiquement vus comme un attribut des mâles chez les espèces animales. Cette vision est liée à un rôle considéré historiquement comme très asymétrique des sexes, avec les mâles qui entrent en compétition (sélection intra-sexuelle) pour attirer les femelles qui choisissent (sélection intersexuelle) le meilleur partenaire. Cette idée fut développée en liaison avec l’asymétrie dans la production des gamètes mâles et femelles. Les femelles, qui produisent un nombre réduit de gamètes de grosse taille, maximisent la chance de survie de leurs descendants en investissant plus dans les soins parentaux ; elles deviennent ainsi le sexe limitant et choisissent les mâles qui entrent donc en compétition pour avoir accès à la reproduction. Tout trait ornemental qui augmente le succès d’appariement sera donc avantageux pour les mâles conduisant à des traits sexuels secondaires plus développés chez ce sexe. Si les traits ornementaux sont fréquents chez les mâles, il existe également de nombreux exemples chez les femelles, notamment chez les espèces socialement monogames à soins biparentaux. C’est seulement récemment que les biologistes évolutifs ont cherché à tester les processus expliquant l’apparition et le maintien des ornements femelles. Si le rôle de la corrélation génétique dans cette évolution est incontestable, et que la sélection sociale est aussi majeure, plusieurs études empiriques ont montré un choix mâle pour les ornements femelles et des modèles théoriques ont déterminé les paramètres conduisant à l’évolution du choix mâle. Par ailleurs, les approches phylogénétiques retraçant l’évolution des ornements ont montré une forte labilité des traits femelles, avec des apparitions et disparitions de traits ornementaux plus fréquentes chez les femelles que chez les mâles. Afin de mieux comprendre la relation entre la sélection sexuelle et l’évolution des ornements femelles, cette thèse s’est construite sur ces résultats précédemment acquis et a mené plusieurs approches pour mieux préciser le rôle de la sélection sexuelle dans l’évolution et le maintien de la coloration chez les femelles. Une approche comparative à l’échelle des passereaux a testé les paramètres déterminés comme conduisant à l’évolution du choix mâle par des modèles théoriques. En accord avec les modèles théoriques, les résultats mettent en avant l’importance de l’investissement du mâle dans les soins parentaux dans l’évolution de la coloration du plumage femelle. Ils montrent également comment l’investissement initial des femelles dans la reproduction limite l’évolution de la coloration femelle. Un autre axe de la thèse s’est focalisé sur la coloration chez une espèce monogame, la Mésange bleue Cyanistes caeruleus, en utilisant un vaste jeu de données à long terme avec10 ans de donnés dans quatre populations pour tester notamment(i) la force de la corrélation génétique, (ii) les liens entre indices de succès de reproduction et coloration et (iii) l’existence d’un appariement par homogamie chez cette espèce. Si les résultats principaux montrent une forte corrélation génétique et soulignent une très forte variation spatiotemporelle, l’application d’outils méta-analytiques a permis de déceler une relation entre les colorations des femelles et les indices de succès de reproduction ainsi qu’un patron faible mais positif d’appariement par homogamie pour les deux patchs étudiés (couronne et bavette). Les deux volets de la thèse représentent de nouveaux apports en faveur de l’évolution des ornements femelles. Ils soulignent la complexité associée à leur évolution et l’importance de prendre en compte la variation spatiotemporelle pour une compréhension étendue et une possibilité de généralisation
Ornamental traits are classically associated with males in animal species. The asymmetrical view is related to sex roles, in which males are competing (intra-sexual selection) to attract females which chose the best mate (intersexual selection). This idea was developed with the concept of anisogamy, the asymmetry in the production of male and female gametes. Females producing few but large gametes maximize their offspring survival rate by investing more in parental care; they become the limiting sex and chose males which are thus competing for access to reproduction. Then, any ornamental trait increasing pairing success would become advantageous for males, leading to more developed secondary sexual traits in this sex. If ornamental traits are more frequent in males, there are also many examples with females, especially in socially monogamous species with biparental care. Evolutionary biologists have only started recently to test processes explaining the outbreak and maintenance of female ornaments. Genetic correlation is an unquestionable process involved in this evolution, and social selection is also a major process. Several empirical studies have also related male mate choice to female ornaments and theoretical models have defined key parameters driving the evolution of male mate choice. Furthermore, phylogenetical studies retracing the evolution of ornaments have showed a high lability in female traits, with more frequent gains and losses of ornamental traits in females compared to males. In order to link sexual selection to the evolution of female ornaments, this thesis was based on these previous achievements to develop different approaches to better understand the role of sexual selection in the evolution and maintenance of female colouration. Comparative methods in songbirds tested the key parameters defined by theoretical models as driving the evolution of male mate choice. In line with theoretical models, results highlight the importance of male investment in parental care in the evolution of female plumage colouration. They also show how female initial investment in reproduction limits this evolution. Another thesis axis focused on colouration in a monogamous species, the Blue tit Cyanistes caeruleus, using a large dataset across 10 years in four populations and tested in particular (i) the strength of genetic correlation, (ii) relations between proxies of reproductive success and colouration and (iii) the existence of assortative mating in this species. The main results highlight a strong genetic correlation and a wide spatiotemporal variation and the use of meta-analyses revealed correlation between female colouration and proxies of reproductive success as well as a weak but positive pattern of assortative mating on the two measured patches (crown and chest). Both sides of the thesis represent new insights in favour of the evolution of female ornaments. They also highlight the complexity associated with their evolution and the importance of considering spatiotemporal variation for extensive understanding and generalisation
APA, Harvard, Vancouver, ISO, and other styles
16

Rougieux, Paul. "Modelling European Forest Products Consumption and Trade in a Context of Structural Change." Thesis, Université de Lorraine, 2017. http://www.theses.fr/2017LORR0004/document.

Full text
Abstract:
Les forêts de l'Union Européenne croissent de 1.2 milliards de m³ par an. La moitié de ce volume reste en forêt. L'autre moitié alimente trois filières industrielles: la filière matériaux, la filière papiers et la filière énergie. Ces flux de produits industriels sont mis en mouvement et financés par divers consommateurs. Or depuis 2000, la consommation change de régime, au point de perturber fortement certains flux de bois et d'impacter l'emploi et la balance commerciale du secteur. Pour prévoir l'impact de ces changements, les économistes modélisent les relations entre l'offre de matières premières, la demande de produits finis, les prix, la production et le commerce international. Cette thèse construit un modèle empirique à même d'évaluer l'impact de ces changements pour le secteur forêt-bois en Europe.Un chapitre introductif définit le contexte des ressources forestières et des produits analysés au niveau macroéconomique. Puis je présente les principaux modèles en équilibre partiel utilisés pour les études prospectives du secteur forêt-bois. A partir d'un cadre général incluant la production et le commerce international, je détaille les problèmes spécifiques rencontrés lors de l'estimation des fonctions de demande. Un deuxième chapitre étudie l'impact potentiel d'un accord commercial entre l'Union Européenne et les États-Unis sur le secteur forestier. Nous avons trouvé que le bien-être total augmenterait dans la région de l'accord et diminuerait légèrement ailleurs. De plus l'accord est plus avantageux pour les consommateurs que pour les producteurs. Les résultats montrent aussi que des pays tiers sont impactés par l'accord, ce qui souligne l'importance d'utiliser un modèle mondial. Dans un troisième chapitre, j'estime les élasticités prix et revenu de la demande en produits forestiers sur un panel de pays européens. Je traite des problèmes de non stationnarité en panel et j'estime les élasticités au sein de panels cointégrés. Les élasticités de demande sont inférieures aux estimations précédentes dans la littérature. Ces élasticités robustes insérées dans un modèle secteur forêt-bois projettent une demande plus faible sur une période de 20 ans. Dans un quatrième chapitre, j'analyse les changements structurels dans la consommation de papier. J'utilise un modèle économétrique sur données de panel permettant d'estimer les effets de seuil dans la relation entre l'utilisation des technologies de l'information et la consommation de papier: papier journal, papier d'impression et papier d'écriture. Je montre comment l'élasticité de demande de papier dépend de la pénétration d'internet dans la population. Un effet de seuil a lieu lorsque la majorité d'une population a accès à internet. Après le seuil, les coefficients liant la consommation et ses variables explicatives (prix et revenu) diminuent en valeur absolue ou changent de signe. A partir d'une projection du nombre d'utilisateurs d'internet par pays, les projections de consommation de papier pourraient être mises à jour avec ce type de modèles à transition. Une plus faible demande de papier libère des ressources et les rend disponibles pour le développement d'autres produits et services forestiers innovants
Forests in the European Union grow by 1.2 billion m³ per year. Half of this volume stays in the forest, in particular for sustainable forest management purposes. The other half flows into three industrial sectors: wooden material, paper products and wood energy. These industrial product flows are set into motion and paid for by diverse final consumers. Since 2000, consumption is undergoing important structural changes which cause large disturbances in material, paper and fuel flows. To predict the impact of these changes, economists model relationships between raw material supply, final products demand, prices, production and international trade. This thesis uses panel data econometrics to estimate parameters of empirical models. An introductory chapter sets the policy context of forest resources and forest products of interest at a macroeconomic level. Then I review major forest sector models and I focus on issues encountered while estimating parameters of demand models. A second chapter investigates the potential impact of a trade agreement between the EU and the US on the forest sector. We found that total welfare would increase in the region of the agreement, in addition the agreement benefits more to consumers than to producers. Results show that third party countries are impacted by the agreement too, which highlights the importance of using a global trade model in analysing the impacts of the agreement. In a third chapter I estimate revenue and price elasticities of demand for forest products on a panel of European countries. I deal with non stationarity issues and estimate demand elasticities within cointegrated panels. I demonstrate that revenue elasticities of demand are lower than previous estimates from the literature. Simulations using these robust elasticities in a forest sector model, show a lower demand over a 20 years time horizon. In a fourth chapter, I analyse structural changes in paper products consumption. For this purpose, I use a panel threshold model to estimate the relationship between information technology use and paper products consumption: newsprint, printing and writing paper. I show how paper demand elasticities depend on internet penetration in the population. Thresholds occur once a majority of the population has access to the internet. After the threshold, coefficients between paper consumption and its explanatory variables revenue and price become smaller in absolute terms or even change sign. Based on projections of the number of internet users per country, paper consumption projections could be updated with this type of thresholds models. From a policy perspective, lower demand for graphics paper would free resources and make them available for innovative forest products and services
APA, Harvard, Vancouver, ISO, and other styles
17

Derot, Jonathan. "Utilisation des données de MAREL Carnot pour la compréhension des mécanismes des extrêmes dans la qualité des eaux à Boulogne-sur-Mer." Thesis, Littoral, 2014. http://www.theses.fr/2014DUNK0375/document.

Full text
Abstract:
L'objectif principal de cette thèse est la caractérisation des dynamiques hautes fréquance en milieu côtier et en particulier leurs extrêmes, par l'intermédiaire de l'étude de série temporelle biogéochimiques à long terme enregistrées par des systèmes automatisés. Les bases de données hautes fréquences utilisées dans cette étude proviennent majoritairement du programme MAREL, qui a été mise en oeuvre par l'IFREMER. Des séries temporelles basses fréquences provenant des programmes de surveillance du littoral SOMLIT (CNRS, INSU) et SRN (Ifremer) sont mises à contribution pour appuyer l'importance des systèmes automatisés. La méthode EMD (Empirical Mode Decomposition) nous a servi de base dans de nombreuses analyses pour étudier ces séries temporelles. Nous avons aussi utilisé des méthodes plus classiques empruntées aux domaines de l'analyse numérique et de la turbulence. Cette études se décompose en 3 parties, et plusieurs annexes. Les matériels et méthodes sont présentés dans la première partie. Dans la seconde partie, la méthode EMD nous a permis de mettre en avant les fortes fluctuations contenues dans les blooms, ainsi que de mener des analyses spectrales grâce à un couplage avec la transformée de Hilbert. L'analyse en composante principale (ACP) a mis en avant les principaux forçages exercés sur la production primaire et les profils de température SOMLIT laissent supposer un impact de la stratification sur l'intensité des blooms. Dans la troisième partie, nous avons mené une étude comparative entre les données basses fréquences et hautes fréquences. Et deux méthodes de cross-corrélation (TDIC et co-spectre) nous ont permis de définir une échelle caractéristique de transition entre les températures de la Manche occidentale et orientale. En annexe, nous avons testé la robustesse de différentes méthodes d'analyses spectrales quant au manque de données dans les séries temporelles, qui est un problème inhérent aux bases de données enregistrées par des systèmes automatisés, et nous avons reproduit un article qui est en cours de soumission
The main objective of this thesis is the characterization of high frequency dynamics in coastal areas and in particular their extremes, through the study of long-term biodeochemical time series registered by automated systems. The majority of high-frequency data sets used in this study came from MAREL program. The low-frequency time series from coastal monitoring programs SOMLIT (CNRS, INSU) and SRN (Ifremer) are employed to support the importance of automated systems. The EMD (Empirical Mode decomposition) method has provided a basis for us to study several of these time series. We also have used some methods more classical borrowed from numerical analysis field and turbulence. This study is organized in three chapters, and several appendices. The first chapter is devoted to the material and method. In the second chapter, using the EMD method we have highlighted the strong fluctuations contained in the blooms, and we have performed spectral analyzes. The principal component analysis (PCA) highlighted the main forcing exerted on primary production and SOMLIT temperature profiles suggest an impact of stratification on the intensity of blooms. In the third chapter, we conducted a comparative study between low-frequency and high-frequency data. Two cross-correlation methods (TDIC and co-spectra) allowed us to define a characteristic transition scale between the temperatures of the western and eastern English Cahnnel. In appendices we tested the robustness of different spectral analysis methods about the missing data in the time series, which is an underlying problem in the database registered by automated systems, and we reproduce a paper, which is under submission
APA, Harvard, Vancouver, ISO, and other styles
18

Legendre, Arnaud. "Modélisation fonctionnelle de l'activité neuronale hippocampique : Applications pharmacologiques." Thesis, Mulhouse, 2015. http://www.theses.fr/2015MULH7271/document.

Full text
Abstract:
Les travaux de cette thèse ont pour but de mettre en œuvre des outils de modélisation et de simulation numériques de mécanismes sous-tendant l’activité neuronale, afin de promouvoir la découverte de médicaments pour le traitement des maladies du système nerveux. Les modèles développés s’inscrivent à différentes échelles : 1) les modèles dits « élémentaires » permettent de simuler la dynamique des récepteurs, des canaux ioniques, et les réactions biochimiques des voies de signalisation intracellulaires ; 2) les modèles de neurones permettent d’étudier l’activité électrophysiologique de ces cellules ; et 3) les modèles de microcircuits permettent de comprendre les propriétés émergentes de ces systèmes complexes, tout en conservant les mécanismes élémentaires qui sont les cibles des molécules pharmaceutiques. À partir d’une synthèse bibliographique des éléments de neurobiologie nécessaires, et d’une présentation des outils mathématiques et informatiques mis en œuvre, le manuscrit décrit les différents modèles développés ainsi que leur processus de validation, allant du récepteur de neurotransmetteur au microcircuit. D’autre part, ces développements ont été appliqués à trois études visant à comprendre : 1) la modulation pharmacologique de la potentialisation à long terme (LTP) dans les synapses glutamatergiques de l’hippocampe, 2) les mécanismes de l'hyperexcitabilité neuronale dans l'épilepsie mésio-temporale (MTLE) à partir de résultats expérimentaux in vitro et in vivo, et 3) la modulation cholinergique de l'activité hippocampique, en particulier du rythme thêta associé à la voie septo-hippocampique
The work of this thesis aims to apply modeling and simulation techniques to mechanisms underlying neuronal activity, in order to promote drug discovery for the treatment of nervous system diseases. The models are developed and integrated at different scales: 1) the so-called "elementary models" permit to simulate dynamics of receptors, ion channels and biochemical reactions in intracellular signaling pathways; 2) models at the neuronal level allow to study the electrophysiological activity of these cells; and 3) microcircuits models help to understand the emergent properties of these complex systems, while maintaining the basic mechanisms that are the targets of pharmaceutical molecules. After a bibliographic synthesis of necessary elements of neurobiology, and an outline of the implemented mathematical and computational tools, the manuscript describes the developed models, as well as their validation process, ranging from the neurotransmitter receptor to the microcircuit. Moreover, these developments have been applied to three studies aiming to understand: 1) pharmacological modulation of the long-term potentiation (LTP) of glutamatergic synapses in the hippocampus, 2) mechanisms of neuronal hyperexcitability in the mesial temporal lobe epilepsy (MTLE), based on in vitro and in vivo experimental results, and 3) cholinergic modulation of hippocampal activity, particularly the theta rhythm associated with septo-hippocampal pathway
APA, Harvard, Vancouver, ISO, and other styles
19

Chaumont, Marc. "Représentation en objets vidéo pour un codage progressif et concurrentiel des séquences d'images." Phd thesis, Université Rennes 1, 2003. http://tel.archives-ouvertes.fr/tel-00004146.

Full text
Abstract:
L'objectif de cette thèse est de valider l'hypothèse selon laquelle le codage par objets vidéo peut permettre d'obtenir des gains significatifs en utilisant le codage dynamique (mise en concurrence de plusieurs codeurs pour chaque objet vidéo). Afin de répondre à cet objectif, différents points ont été étudiés. Le premier point concerne l'étude de la segmentation en objet vidéo de manière automatique. Nous avons proposé un modèle d'objet faisant intervenir la notion de suivi long terme via la représentation d'un objet sous la forme mouvement/texture (avec l'utilisation d'un maillage actif pour représenter le mouvement). Un algorithme de clustering 3D a été développé basé sur ce modèle. Dans un deuxième temps, nous nous sommes attaché à l'amélioration des techniques de codage objet via la hiérarchisation ("scalabilité") du flux vidéo. Pour cela, nous utilisons un schéma de codage ondelette 3D et nous introduisons notamment un codage de contours avec perte. Enfin le dernier point étudié concerne le codage dynamique d'objets vidéo (mise en concurrence de plusieurs codeurs pour chaque objet vidéo). Les codeurs utilisés sont : le codeur H264/AVC, un codeur ondelette 3D, un codeur 3D et un codeur par mosaïque. La répartition automatique des débits permet d'obtenir des résultats dépassant ceux produits par chaque codeur pris séparément, tout en offrant le découpage du flux en objets vidéo. Mots clés : Segmentation en objets vidéo, segmentation long terme, modèle d'objet vidéo, fonctionelle d'énergie, clustering, maillage actif, mosaïque, codage vidéo, codage d'objet vidéo, décorrélation mouvement texture forme, hiérarchisation : scalabilté, ondelettes spatiotemporelles, ondelette 3D, codage de contour, codage de forme, prolongement : padding, codage dynamique, codage concurrentiel, optimisation débit-distorsion, répartition des débits, antialiasing.
APA, Harvard, Vancouver, ISO, and other styles
20

B'Chir, Imène. "Performance à long terme des fusions-acquisitions canadiennes." Mémoire, 2011. http://www.archipel.uqam.ca/4287/1/M12245.pdf.

Full text
Abstract:
Nous étudions dans ce travail la performance à long terme des acquéreurs canadiens pour 1337 opérations de Fusions-Acquisitions ayant eu lieu entre 1994 et 2009. Nous utilisons le modèle à trois facteurs de Fama et French (1993) dans le cadre de l'approche calendaire. Nous procédons également à différents tests de robustesse (portefeuilles équi-pondérés, portefeuilles pondérés par la capitalisation, cas avec chevauchements et cas sans chevauchements). Nos résultats suggèrent que les acquéreurs canadiens sous-performent significativement sur un horizon de 36 mois. L'analyse des facteurs potentiels de cette sous-performance appuie l'hypothèse de la sous-performance des acquéreurs. ______________________________________________________________________________ MOTS-CLÉS DE L’AUTEUR : fusions-acquisitions, performance à long terme, approche calendaire
APA, Harvard, Vancouver, ISO, and other styles
21

van, der Beek Pieter. "L'érosion à long terme et l'évolution du relief continental: modélisations numériques et données contraignantes." Habilitation à diriger des recherches, 2003. http://tel.archives-ouvertes.fr/tel-00010316.

Full text
Abstract:
Ce dossier d'habilitation à diriger des recherches dresse un bilan de mon activité de recherche effectuée depuis l'obtention de ma thèse de doctorat, d'abord au Research School of Earth Sciences de l'Australian National University (1995-1997) et depuis 1998 au Laboratoire de Géodynamique des Chaînes Alpines de l'Université Joseph Fourier. Il présente également le projet scientifique que j'envisage de poursuivre dans les années à venir. Je présente dans la première partie mon Curriculum Vitae avec un bilan succinct des thèmes de recherche que j'ai développés, mon activité d'encadrement de jeunes chercheurs et d'enseignement, ainsi qu'une liste de mes publications et conférences. La deuxième partie propose quelques éléments de réflexion sur les relations entre tectonique, érosion et l'évolution du relief à long terme. Après une introduction générale, je dresse le bilan de ma contribution sur ce terrain, en ce qui concerne le développement et l'utilisation de modèles numériques des processus de surface pour étudier l'évolution du relief, ainsi que dans l'acquisition de données thermochronologiques pour contraindre les taux de dénudation. La troisième et dernière partie de ce mémoire présente mon projet de recherche, axé sur le développement des modèles numériques des processus de surface et la mise en œuvre de nouvelles bases de données permettant d'appréhender l'évolution du relief. Afin de permettre une plus grande accessibilité pour tous les membres du jury d'habilitation, les deuxième et troisième parties de ce dossier seront rédigées en anglais.
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography