Dissertations / Theses on the topic 'Données à historique'

To see the other types of publications on this topic, follow the link: Données à historique.

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 dissertations / theses for your research on the topic 'Données à historique.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Durif, Agnès. "Phobie sociale : historique et données actuelles." Bordeaux 2, 1991. http://www.theses.fr/1991BOR23070.

Full text
APA, Harvard, Vancouver, ISO, and other styles
2

Spéry, Laurent. "Historique et mise à jour de données géographiques : application au cadastre français." Avignon, 1999. http://www.theses.fr/1999AVIG1020.

Full text
Abstract:
Le travail présenté est relatif au vaste problème de l'historique et de la mise à jour de données géographiques. Dans cette problématique nous nous sommes plus particulièrement attachés aux opérations d'intégration de données livrées par un producteur à la suite de changements du domaine de référence, au sein d'une application utilisateur. Le domaine visé concerne l'information cadastrale, dans de nombreux pays cette information a fonction de donnée de référence dans de nombreuses applications de type gestion du territoire car les limites de la propriété y figurent. La confrontation avec les pratiques existantes, dans le contexte spécifique de l'informatisation du plan cadastral français nous amène a proposer, pour l'utilisateur une démarche basée sur la détection a priori des modifications que le producteur a effectuées. Il s'agit de limiter l'opération d'intégration aux seuls objets modifiés en les extrayant des données livrées. La démarche s'appuie sur des indicateurs de changement : identifiant et métadonnées d'actualité et de généalogie
APA, Harvard, Vancouver, ISO, and other styles
3

Bui, Quang Ngoc. "Aspects dynamiques et gestion du temps dans les systèmes de bases de données généralisées." Grenoble INPG, 1986. https://theses.hal.science/tel-00321849.

Full text
APA, Harvard, Vancouver, ISO, and other styles
4

Zorn, Caroline. "Données de santé et secret partagé : pour un droit de la personne à la protection de ses données de santé partagées." Thesis, Nancy 2, 2009. http://www.theses.fr/2009NAN20011.

Full text
Abstract:
Le secret partagé est une exception légale au secret professionnel, permettant à ceux qui prennent en charge le patient d'échanger des informations le concernant, sans être sanctionnés du fait de cette révélation d'informations protégées. Si les soignants depuis toujours communiquent au sujet du patient dans son intérêt, il n'y en a pas moins un équilibre à trouver entre l'échange d'informations nécessaire à la pratique médicale, et le respect de la vie privée qu'un partage trop large peu compromettre. Or, l'émergence de l'outil informatique, multipliant les possibilités de partage de données de santé, remet en cause un équilibre fondé sur des mécanismes traditionnels de protection de l'intimité de la personne. Le traitement de données de santé partagées doit alors s'analyser au regard des règles du secret partagé, des règles de la législation "Informatique et Libertés", mais également au jour d'un foisonnement vertigineux de normes relatives à la mise en oeuvre de dossiers spécifiques comme le Dossier médical personnel, le Dossier pharmaceutique ou l'Historique des remboursements. La mise en relief systématique de la place du consentement de la personne concernée conduit au constat de l'impérative inscription à la Constitution du droit de la personne à la protection de ses données de santé partagées
The medical professional secret is a legal exception to the professional secret; it allows a patient's caregivers to exchange health information that is relevant to that patient's care without being punished for revealing confidential information. That caregivers discuss patient's health information with other medical professional involved in that patient's care is to the benefit of the patient. Nonetheless, there is a fine balance to be struck between a "need to know" professional exchange of information, which is essential to care of the patient, and a broad exchange of information, which may ultimately comprise the confidentiality of the patient's private life. The emergence of an electronic tool, which multiplies the potential possibilities for data exchange, further disrupts this balance. Consequently, the manipulation of this shared health information must be subject to the medical professional secret, the "Informatique et Libertés" legislation, and all of the numerous norms and standards as defined by the French national electronic medical record (DMP), the pharmaceutical medical record (Dossier pharmaceutique), or the reimbursement repository (Historique des remboursements). As the patient's health information is increasingly shared between health care providers - through means such as the DMP or DP - the patient's right and ability to control the access to his/her health information have to become more and more important. A study regarding the importance of obtaining the patient's consent lead to the following proposal: to inscribe in the French Constitution the patient's right to confidentiality regarding health information
APA, Harvard, Vancouver, ISO, and other styles
5

Boleda, Mario. "Démographie historique des Andes : évaluation de certaines méthodes d'estimation du régime démographique à l'époque moderne." Lyon 2, 2003. http://theses.univ-lyon2.fr/documents/lyon2/2003/boleda_m.

Full text
Abstract:
Des estimations de la dynamique démographique des populations du passé se font couramment par des méthodes mises au point pour être appliquées lorsque les renseignements nécessaires font défaut. Dans cette thèse l'on propose, justement, de tester de façon empirique certaines de ces méthodes. Il s'agit des modèles de populations stables et quasi-stables (Coale & Demeny, 1966), ainsi que de la méthode présentée par Ronald Lee (inverse projection) qui est la base du logiciel POPULATE élaboré par Robert Mc Caa et H. Pérez Brignoli. Or ces procédés ressortent mal évaluées. Ils souffrent de biais très forts. Qu'est-ce que le chercheur peut faire dans ce cas ? Et bien, le recours à ce genre de méthodes restera pour le moment inévitable, en attendant que de meilleures procédures voient le jour. Le chercheur peut, cependant, employer les facteurs de correction que nous avons calculé grâce à l'étude menée sur la population canadienne sous régime français (1608-1760)
Demographic dynamics estimations on historical population are frequently done by methods designed to be applied when data are lacking or incomplete. In this thesis, it is proposed an empirical test for several of these methods: the stable and quasi-stable models, that were elaborated by Coale & Demeny (1966) and the inverse projection designed by R. Lee as it is included in the POPULATE solution, a software produced by Robert McCaa and H Pérez Brignoli. Methods appeared to be seriously biaised. Differences between direct mesures and estimates coming from the tested methods were much larger than expected. Researchers are going to be using these techniques in the next future, waiting for a new and better procedure. Researchers can now apply the correction factors that we obtained from our experimental study based on the Quebec population
APA, Harvard, Vancouver, ISO, and other styles
6

Matonda, Sakala Igor. "Le bassin de l'Inkisi à l'époque du royaume Kongo: confrontation des données historiques, archéologiques et linguistiques." Doctoral thesis, Universite Libre de Bruxelles, 2017. http://hdl.handle.net/2013/ULB-DIPOT:oai:dipot.ulb.ac.be:2013/250381.

Full text
Abstract:
La thèse porte sur l'histoire du royaume Kongo à travers la région du bassin de l'Inkisi. L'étude, à travers une approche alliant l'archéologie, l'histoire et la linguistique historique, essaye d'apporter une nouvelle lecture du rôle du bassin de l'Inkisi dans l'évolution de cette entité politique. Certains auteurs ont affirmé que la rivière Inkisi était la frontière de cette entité au 16e siècle. Par une analyse systématiques des cartes historiques et des sources primaires, j'ai pu montrer que sa frontière n'était pas l'Inkisi mais allait jusuq'au Kwango dès cette époque. Cela m'a conduit à souligner que le bassin de l'Inkisi faisait partie du coeur du royaume Kongo et même à ces origines. Mon étude a aussi porté sur la question de la démographie de ce royaume. Nous avons pu souligner que pour estimer la population de ce royaume il fallait considérer à la fois les statistiques de baptêmes et les estimations anciens. Notre étude à aussi mis en lumière que l'une des sources historique considérée à ce jour comme une source primaire, l'oeuvre de Pigafetta, recelait en réalité une nouvelle historiographie déformant une série de réalités de ce royaume. Notre travail apporte donc un renouvellement de connaissances sur une série de questions liés à cet ancien royaume. Un nouvelle histoire de ce royaume Kongo est désormais à envisager. Une autre partie importante de la thèse a été d'approcher ces mbanza à travers l'archéologie. Une série de prospections, de sondages et de fouilles se sont concentrées le long de la rivière Inkisi afin de dresser la carte archéologique de cette région. Certains sites importants ont livré des artefacts qui nous ont permis de mieux connaître la culture matérielle de cette région.
Doctorat en Histoire, histoire de l'art et archéologie
info:eu-repo/semantics/nonPublished
APA, Harvard, Vancouver, ISO, and other styles
7

Cauvin-Hardy, Clémence. "Optimisation de la gestion du patrimoine culturel et historique à l’aide des méthodologies avancées d’inspection." Thesis, Université Clermont Auvergne‎ (2017-2020), 2020. http://www.theses.fr/2020CLFAC057.

Full text
Abstract:
La thèse porte sur l’optimisation de la gestion du patrimoine culturel et historique à l'aide des méthodologies avancées d'inspection tout en s’appuyant sur le projet HeritageCare.La réponse à cette problématique est posée en cinq chapitres : (1) un état de l’art des méthodologies de gestion préventive, du projet HeritageCare et de l’identification de l’état de dégradation, (2) la mise en place de la méthodologie générale de la gestion préventive décomposée en quatre étapes (l’anamnèse, le diagnostic, la thérapie et le contrôle), (3) la proposition de modèles d’agrégation (4), les résultats de l’application de la démarche de gestion préventive et enfin (5) ceux de l’application des modèles. Ces derniers permettent de hiérarchiser les bâtis sur la base de 37 critères organisés en sous critères et indicateurs, de mettre en évidence la prise de décision des propriétaires sur la base de matrice de criticité combinant les valeurs des indicateurs, de déterminer la durée de vie résiduelle des bâtis sur la base de courbes d’altérations, de proposer et de hiérarchiser des actions de maintenance en s’appuyant sur une base de données développée. La méthodologie est illustrée par son application à quatorze bâtis représentant le patrimoine culturel et historique français
The objective of the thesis is to optimize the management of cultural and historical building heritage using advanced inspection methodologies with HeritageCare project.The answer to this problem is detailed in five chapters: (1) a state of the art of preventive management methodologies, the HeritageCare project and the identification of the state of degradation, (2) the implementation of the general methodology on preventive management is decomposed into 4 steps (anamnesis, diagnosis, therapy and control), (3) proposal of aggregation models (4), results of the application of the management approach preventive and finally (5) the application of models. These make it possible to prioritize the buildings on the basis of 37 criteria organized into sub-criteria and indicators, highlight the decision-making of the owners on the basis of a criticality matrix combining the values ​​of the indicators, determine the useful life of the buildings with the deterioration curves, propose and prioritize maintenance actions based on a developed database.The methodology is illustrated by its application on fourteen buildings representing the French cultural and historical heritage
APA, Harvard, Vancouver, ISO, and other styles
8

Ahmed-Chaouch, Nabil. "Analyse historique et comparative des deux villes : la vieille ville d'Aix-en-Provence, la médina de Constantine à l'aide des S.I.G. : Comparaison historique et géographique de la croissance de deux villes méditerranéennes." Thesis, Aix-Marseille, 2012. http://www.theses.fr/2012AIXM3025.

Full text
Abstract:
De nombreux domaines d'applications utilisent des représentations spatiales. C'est le cas de l'architecture, de l'urbanisme ou de la géographie. L'acquisition de ces données spatiales en urbanisme a connu ces dernières années des progrès significatifs grâce à l'introduction de nouveaux instruments de mesure. Ces derniers permettent d'obtenir des supports d'analyse urbaine à différents niveaux de détails et pour différentes finalités. Cette thèse propose une approche permettant de combiner deux disciplines, la typo-morphologie urbaine et la géomatique. Nous avons expliqué la notion centrale de processus morphologique, les différentes étapes d'opération propre à l'analyse historique, notamment le traitement des sources cartographiques avec l'outil S.I.G. Notre travail a avant tout consisté à explorer l'apport des S.I.G. au traitement et à l'analyse des données historiques. Nous nous sommes intéressés particulièrement à l'approche typo-morphologique pour compléter le potentiel interprétatif et descriptif. Notre travail de thèse est issu de différentes étapes, nous pouvons mentionner la construction d'une classification formelle, des concepts liés à l'évolution historique et morphologique des villes de Constantine et d'Aix-en-Provence. En partant de cette histoire urbaine, comparer ces deux villes à permis d'établir une chronologie de l'évolution des formes urbaines, de mieux saisir les enjeux de chacune de celles-ci
Many fields of applications use spatial representations. This is the case of architecture, town planning or geography. The acquisition of these spatial datas in town planning these last years has experienced a significant progress with the introduction of new instruments. This acquisition allows to get urban support analysis at different levels of details and for different purposes. This thesis proposes an approach to combine two disciplines, the urban typomorphology and geomatics. We have explained the central notion of morphological process, the different steps of operation peculiar to the historical analysis for the treatment of map datas with the GIS instrument, primarily our work consist to explore the GIS contribution to the historical data treatment and analysis. We focused particularly on the approach to complete typomorphological potential interpretive and descriptive. Our thesis work has been made from different stages, we can mention the construction of a formal classification, concepts related to the historical development and morphology of Constantine and Aix-en-Provence. Starting from this urban history compare the two cities has established a chronology of the evolution of urban forms, to better understand the challenges each of these latter. Specifically, this work allows us to contribute to improving the mastery of the urban project. Finally tracks are proposed to continue this work by exploiting the platform exploration of 3D representation proved very useful for making historical analysis
APA, Harvard, Vancouver, ISO, and other styles
9

Bottard, Sylvie. "Gestion du risque sismique, développement d'une méthodologie probabiliste pour l'évaluation de l'aléa sismique en France : application aux données de sismicité historique et instrumentale." Paris 9, 1995. https://portail.bu.dauphine.fr/fileviewer/index.php?doc=1995PA090009.

Full text
Abstract:
L'approche adoptée dans cette étude consacrée à l'évaluation de l'aléa sismique, est probabiliste. Les évaluations concernent le domaine sismotectonique français représenté par un zonage. La modélisation de la sismicité régionale, basée sur des données de sismicité historique, comprend: l'élaboration des processus stochastiques d'occurrence des séismes, et la détermination des relations entre les paramètres d'intérêt et les caractéristiques des sources potentielles. Estimer l'aléa sismique sur un site consiste à cumuler les contributions de toutes les sources influençant la distribution des paramètres d'intérêt sur le site. Les évaluations permettent d'établir des cartes de risque en termes d'intensité, à l'échelle de la France ; et fournissent, sur un site, des spectres probabilistes représentant les paramètres de mouvement du sol dans le domaine fréquentiel. Pour déterminer les intensités maximales, on propose une méthode semi-paramétrique originale qui associe la théorie des valeurs extrêmes et une procédure Bootstrap. Des modèles de renouvellement, fondés sur la théorie de la lacune sismique, sont utilisés afin de modéliser la propriété non-stationnaire des processus d'occurrence des séismes. Le développement de modèles sophistiques pour décrire des phénomènes physiques complexes induit de nombreux facteurs d'incertitude. Dans cette étude, l'analyse de l'incertitude repose sur la méthode de simulation de Monte-Carlo, et a recours à des jugements d'experts. Ces analyses permettent d'apprécier la précision des estimations obtenues
APA, Harvard, Vancouver, ISO, and other styles
10

Langlois, Vincent. "Couple de friction métallique de nouvelle génération en arthroplastie totale primaire de hanche : historique, données actuelles et résultats préliminaires d'une série de 54 cas." Bordeaux 2, 2001. http://www.theses.fr/2001BOR23022.

Full text
APA, Harvard, Vancouver, ISO, and other styles
11

Bouaziz, Lycette. "Moyen âge, passions et pouvoir maudit : étude de l'exploitation littéraire des sources et des données historiques dans "Les Rois maudits" (tomes V, VI, VII) de Maurice Druon : thèse." Paris 12, 2005. https://athena.u-pec.fr/primo-explore/search?query=any,exact,990002520970204611&vid=upec.

Full text
Abstract:
La problématique, qui est l'interprétation des sources historiques et la reconstitution du Moyen Âge, fournit un éclairage sur les libertés prises pour tracer les portraits. La réalité médiévale est revisitée par une écriture dont les ressorts dramatiques et les visées critiques opèrent, dans les romans historiques, la métamorphose du Moyen Âge. Les trois parties de cette thèse sont une étude des trois facettes de cette période historique : le Moyen Âge obscur est moins celui de la malédiction de Jacques de Molay que celui des intrigants aux passions démoniaques. Il devient le cadre d'une réflexion atemporelle examinée dans la deuxième partie, et révèle les conception du pouvoir d'un écrivain engagé. Dans la troisième partie sont démontés les dysfonctionnements d'un sanglant XIVe siècle ancré dans le réel qui conduit à la guerre de Cent ans sans offrir un spectacle épique. L'originalité de M. Druon est donc de conjuguer sa sérieuse documentation avec ses hypothèses psychologiques
The challenge of tracing back the history of the Middle Age by interpreting some historians' psychology accounts to some extent for his psychological portraits to be somewhat different from reality. The medieval reality uncovered through the dramatic art and the critics of M. Druon leads to a metamorphosis of the Middle Age. The three parts of this thesis respectively emphasize three major aspects of this historical period : the dull Middle Age is less the one of Jacques de molay's malediction than that of characters with fiendish passions. In the second part, M. Druon reveals the power from a committed writer is shown. In the third part, M. Druon reveals the malfunctioning of a bloody XIVth century, wellreal, that led to the terrible Hundred Years' War. So the originality of M. Druon consists in combining his detailed documentation with his own interpretation of the psychology of some historians
APA, Harvard, Vancouver, ISO, and other styles
12

Michon, Philippe. "Vers une nouvelle architecture de l'information historique : L'impact du Web sémantique sur l'organisation du Répertoire du patrimoine culturel du Québec." Mémoire, Université de Sherbrooke, 2016. http://hdl.handle.net/11143/8776.

Full text
Abstract:
Le Plan culturel numérique du Québec (PCNQ) souligne l’importance pour le domaine culturel québécois, auquel participe étroitement les historiens, de s’intéresser aux possibilités du Web sémantique. Dans cette idée, ce mémoire étudie les avantages et les inconvénients de l’association entre le Web sémantique et l’histoire. D’un côté, on retrouve une nouvelle configuration du Web sous forme de données liées qui tente de s’inscrire dans un cadre pratique et, de l’autre, une discipline qui souhaite comprendre et préserver les faits passés. La réunion des deux concepts nécessite une implication interdisciplinaire entre programmeurs, professionnels en sciences de l’information et historiens. Face à ce travail interdisciplinaire, quels sont les enjeux et le rôle de l’historien dans le développement d’une plate-forme sémantique sur le patrimoine québécois? Pour répondre à cette question, ce mémoire explique les liens étroits qui existent entre la discipline historique et les données liées. Après avoir défini un ensemble de concepts fondateurs tels que le Resource Description Framework (RDF), l’Uniform Resource Identifier (URI), les fichiers d’autorité et les ontologies, ce mémoire associe un corpus de personnes du Répertoire du patrimoine culturel du Québec (RPCQ) avec DBpedia, un joueur majeur du Web sémantique. Cette démonstration explique comment le patrimoine québécois s’articule dans le nuage des données liées. De cette expérimentation découle deux constats qui démontrent l’importance de l’implication historienne dans une structure sémantique. Le Québec n’a pas d’autorité sur ses propres données et on ne retrace actuellement que la grande histoire du Québec sans entrer dans ses particularités.
APA, Harvard, Vancouver, ISO, and other styles
13

Gentilhomme, Théophile. "Intégration multi-échelles des données de réservoir et quantification des incertitudes." Thesis, Université de Lorraine, 2014. http://www.theses.fr/2014LORR0089/document.

Full text
Abstract:
Dans ce travail, nous proposons de suivre une approche multi-échelles pour simuler des propriétés spatiales des réservoirs, permettant d'intégrer des données directes (observation de puits) ou indirectes (sismique et données de production) de résolutions différentes. Deux paramétrisations sont utilisées pour résoudre ce problème: les ondelettes et les pyramides gaussiennes. A l'aide de ces paramétrisations, nous démontrons les avantages de l'approche multi-échelles sur deux types de problèmes d'estimations des incertitudes basés sur la minimisation d'une distance. Le premier problème traite de la simulation de propriétés à partir d'un algorithme de géostatistique multipoints. Il est montré que l'approche multi-échelles basée sur les pyramides gaussiennes améliore la qualité des réalisations générées, respecte davantage les données et réduit les temps de calculs par rapport à l'approche standard. Le second problème traite de la préservation des modèles a priori lors de l'assimilation des données d'historique de production. Pour re-paramétriser le problème, nous développons une transformée en ondelette 3D applicable à des grilles stratigraphiques complexes de réservoir, possédant des cellules mortes ou de volume négligeable. Afin d'estimer les incertitudes liées à l'aspect mal posé du problème inverse, une méthode d'optimisation basée ensemble est intégrée dans l'approche multi-échelles de calage historique. A l'aide de plusieurs exemples d'applications, nous montrons que l'inversion multi-échelles permet de mieux préserver les modèles a priori et est moins assujettie au bruit que les approches standards, tout en respectant aussi bien les données de conditionnement
In this work, we propose to follow a multi-scale approach for spatial reservoir properties characterization using direct (well observations) and indirect (seismic and production history) data at different resolutions. Two decompositions are used to parameterize the problem: the wavelets and the Gaussian pyramids. Using these parameterizations, we show the advantages of the multi-scale approach with two uncertainty quantification problems based on minimization. The first one concerns the simulation of property fields from a multiple points geostatistics algorithm. It is shown that the multi-scale approach based on Gaussian pyramids improves the quality of the output realizations, the match of the conditioning data and the computational time compared to the standard approach. The second problem concerns the preservation of the prior models during the assimilation of the production history. In order to re-parameterize the problem, we develop a new 3D grid adaptive wavelet transform, which can be used on complex reservoir grids containing dead or zero volume cells. An ensemble-based optimization method is integrated in the multi-scale history matching approach, so that an estimation of the uncertainty is obtained at the end of the optimization. This method is applied on several application examples where we observe that the final realizations better preserve the spatial distribution of the prior models and are less noisy than the realizations updated using a standard approach, while matching the production data equally well
APA, Harvard, Vancouver, ISO, and other styles
14

Bernard, Guillaume. "Détection et suivi d’événements dans des documents historiques." Electronic Thesis or Diss., La Rochelle, 2022. http://www.theses.fr/2022LAROS032.

Full text
Abstract:
Les campagnes actuelles de numérisation de documents historiques issus de fonds documentaires du monde entier ouvrent de nouvelles voies aux historiens, historiennes et spécialistes des sciences sociales. La compréhension des événements du passé se renouvelle par l’analyse de ces grands volumes de données historiques : découdre le fil des événements, tracer de fausses informations sont, entre autres, des possibilités offertes par les sciences du numérique. Cette thèse s’intéresse à ces articles de presse historique et propose, à travers deux stratégies que tout oppose, deux processus d’analyse répondant à la problématique de suivi des événements dans la presse. Un cas d’utilisation simple est celui d’une équipe de recherche en humanités numériques qui s’intéresse à un événement particulier du passé. Ses membres cherchent à découvrir tous les documents de presse qui s’y rapportent. L’analyse manuelle des articles est irréalisable dans un temps contraint. En publiant à la fois algorithmes, jeux de données et analyses, cette thèse est un premier jalon vers la publication d’outils plus sophistiqués. Nous permettons à tout individu de fouiller les fonds de presse ancienne à la recherche d’événements, et pourquoi pas, renouveler certaines de nos connaissances historiques
Current campaigns to digitise historical documents from all over the world are opening up new avenues for historians and social science researchers. The understanding of past events is renewed by the analysis of these large volumes of historical data: unravelling the thread of events, tracing false information are, among other things, possibilities offered by the digital sciences. This thesis focuses on these historical press articles and suggests, through two opposing strategies, two analysis processes that address the problem of tracking events in the press. A simple use case is for instance a digital humanities researcher or an amateur historian who is interested in an event of the past and seeks to discover all the press documents related to it. Manual analysis of articles is not feasible in a limited time. By publishing algorithms, datasets and analyses, this thesis is a first step towards the publication of more sophisticated tools allowing any individual to search old press collections for events, and why not, renew some of our historical knowledge
APA, Harvard, Vancouver, ISO, and other styles
15

Manrique, Tito. "Functional linear regression models : application to high-throughput plant phenotyping functional data." Thesis, Montpellier, 2016. http://www.theses.fr/2016MONTT264/document.

Full text
Abstract:
L'Analyse des Données Fonctionnelles (ADF) est une branche de la statistique qui est de plus en plus utilisée dans de nombreux domaines scientifiques appliqués tels que l'expérimentation biologique, la finance, la physique, etc. Une raison à cela est l'utilisation des nouvelles technologies de collecte de données qui augmentent le nombre d'observations dans un intervalle de temps.Les jeux de données fonctionnelles sont des échantillons de réalisations de fonctions aléatoires qui sont des fonctions mesurables définies sur un espace de probabilité à valeurs dans un espace fonctionnel de dimension infinie.Parmi les nombreuses questions étudiées par l'ADF, la régression linéaire fonctionnelle est l'une des plus étudiées, aussi bien dans les applications que dans le développement méthodologique.L'objectif de cette thèse est l'étude de modèles de régression linéaire fonctionnels lorsque la covariable X et la réponse Y sont des fonctions aléatoires et les deux dépendent du temps. En particulier, nous abordons la question de l'influence de l'histoire d'une fonction aléatoire X sur la valeur actuelle d'une autre fonction aléatoire Y à un instant donné t.Pour ce faire, nous sommes surtout intéressés par trois modèles: le modèle fonctionnel de concurrence (Functional Concurrent Model: FCCM), le modèle fonctionnel de convolution (Functional Convolution Model: FCVM) et le modèle linéaire fonctionnel historique. En particulier pour le FCVM et FCCM nous avons proposé des estimateurs qui sont consistants, robustes et plus rapides à calculer par rapport à d'autres estimateurs déjà proposés dans la littérature.Notre méthode d'estimation dans le FCCM étend la méthode de régression Ridge développée dans le cas linéaire classique au cadre de données fonctionnelles. Nous avons montré la convergence en probabilité de cet estimateur, obtenu une vitesse de convergence et développé une méthode de choix optimal du paramètre de régularisation.Le FCVM permet d'étudier l'influence de l'histoire de X sur Y d'une manière simple par la convolution. Dans ce cas, nous utilisons la transformée de Fourier continue pour définir un estimateur du coefficient fonctionnel. Cet opérateur transforme le modèle de convolution en un FCCM associé dans le domaine des fréquences. La consistance et la vitesse de convergence de l'estimateur sont obtenues à partir du FCCM.Le FCVM peut être généralisé au modèle linéaire fonctionnel historique, qui est lui-même un cas particulier du modèle linéaire entièrement fonctionnel. Grâce à cela, nous avons utilisé l'estimateur de Karhunen-Loève du noyau historique. La question connexe de l'estimation de l'opérateur de covariance du bruit dans le modèle linéaire entièrement fonctionnel est également traitée. Finalement nous utilisons tous les modèles mentionnés ci-dessus pour étudier l'interaction entre le déficit de pression de vapeur (Vapour Pressure Deficit: VPD) et vitesse d'élongation foliaire (Leaf Elongation Rate: LER) courbes. Ce type de données est obtenu avec phénotypage végétal haut débit. L'étude est bien adaptée aux méthodes de l'ADF
Functional data analysis (FDA) is a statistical branch that is increasingly being used in many applied scientific fields such as biological experimentation, finance, physics, etc. A reason for this is the use of new data collection technologies that increase the number of observations during a time interval.Functional datasets are realization samples of some random functions which are measurable functions defined on some probability space with values in an infinite dimensional functional space.There are many questions that FDA studies, among which functional linear regression is one of the most studied, both in applications and in methodological development.The objective of this thesis is the study of functional linear regression models when both the covariate X and the response Y are random functions and both of them are time-dependent. In particular we want to address the question of how the history of a random function X influences the current value of another random function Y at any given time t.In order to do this we are mainly interested in three models: the functional concurrent model (FCCM), the functional convolution model (FCVM) and the historical functional linear model. In particular for the FCVM and FCCM we have proposed estimators which are consistent, robust and which are faster to compute compared to others already proposed in the literature.Our estimation method in the FCCM extends the Ridge Regression method developed in the classical linear case to the functional data framework. We prove the probability convergence of this estimator, obtain a rate of convergence and develop an optimal selection procedure of theregularization parameter.The FCVM allows to study the influence of the history of X on Y in a simple way through the convolution. In this case we use the continuous Fourier transform operator to define an estimator of the functional coefficient. This operator transforms the convolution model into a FCCM associated in the frequency domain. The consistency and rate of convergence of the estimator are derived from the FCCM.The FCVM can be generalized to the historical functional linear model, which is itself a particular case of the fully functional linear model. Thanks to this we have used the Karhunen–Loève estimator of the historical kernel. The related question about the estimation of the covariance operator of the noise in the fully functional linear model is also treated.Finally we use all the aforementioned models to study the interaction between Vapour Pressure Deficit (VPD) and Leaf Elongation Rate (LER) curves. This kind of data is obtained with high-throughput plant phenotyping platform and is well suited to be studied with FDA methods
APA, Harvard, Vancouver, ISO, and other styles
16

Heidari, Leila. "Calage d'historiques de réservoirs pétroliers par le filtre de Kalman d'ensemble et des méthodes de paramétrisation." Phd thesis, École Nationale Supérieure des Mines de Paris, 2011. http://pastel.archives-ouvertes.fr/pastel-00581082.

Full text
Abstract:
Le calage historique permet l'intégration de données acquises après la production dans la construction de modèles de réservoir. Le filtre de Kalman d'ensemble (EnKF) est une méthode d'assimilation (ou calage historique) séquentielle capable d'intégrer les données mesurées dès qu'ils sont obtenus. Ce travail est basé sur l'application de l' EnKF pour le calage historique et est divisé en deux sections principales. La première section traite l'application de la EnKF à plusieurs cas d'études afin de mieux comprendre les avantages et les inconvénients de la méthode. Ces cas d'étude incluent deux cas d'étude synthétiques (un simple et un plutôt complexe), un modèle de faciès et un modèle de réservoir réel. Dans la plupart des cas, la méthode a réussi à reproduire les données mesurées. Les problèmes rencontrés sont expliqués et des solutions possibles sont proposées. La seconde partie traite deux nouveaux algorithmes proposé en combinant l'EnKF avec deux méthodes de paramétrisation: méthode des points pilotes et méthode de déformation graduelle, permettant la préservation les propriétés statistiques de l'ordre de deux (moyenne et covariance). Les deux algorithmes développés sont appliqués au cas d'étude synthétique simple : la première méthode peut réussir avec un nombre suffisant et un bon positionnement des points pilotes. Pour la déformation graduelle, l'application peut réussir si l'ensemble de fond est assez grand.
APA, Harvard, Vancouver, ISO, and other styles
17

Pellen, Nadine. "Hasard, coïncidence, prédestination… et s’il fallait plutôt regarder du côté de nos aïeux ? : analyse démographique et historique des réseaux généalogiques et des structures familiales des patients atteints de mucoviscidose en Bretagne." Versailles-St Quentin en Yvelines, 2012. http://www.theses.fr/2012VERS004S.

Full text
Abstract:
La population à la base de l’étude est constituée de malades atteints de mucoviscidose, diagnostiqués au plan clinique et ayant vécu en Bretagne au cours de ces cinquante dernières années. Leurs ascendances, reconstruites avec le soutien des centres de généalogie, rassemblent plus de 250 000 apparentés. Les caractéristiques génétiques et généalogiques des patients étant ainsi connues, l’objectif de la thèse était de prendre appui sur cette base de données généalogiques afin d’examiner si les comportements démographiques du passé peuvent expliquer la fréquence et la répartition de la mucoviscidose observées aujourd’hui en Bretagne. Les porteurs partageant une mutation identique sont apparentés. Les lieux de vie de leurs ancêtres communs ont été cartographiés. Ils indiquent une répartition différentielle selon les mutations portées. Ces apparentements génétiques permettent de tracer le chemin emprunté par le gène pour arriver jusqu’à nous. Au niveau des ancêtres, l’examen des unions a révélé des âges au mariage précoces, notamment pour les femmes, des remariages fréquents, notamment pour les hommes, révélateurs de pratiques matrimoniales fécondes augmentant la probabilité de transmission génétique. De plus, la stabilité géographique constatée au moment des noces ne semble pas avoir favorisé la diversité génétique. De plus nous avons calculé qu’il existerait un avantage sélectif à être porteur sain en termes d’espérance de vie. La consanguinité, souvent évoquée pour expliquer la fréquence du nombre de malades atteints de mucoviscidose en Bretagne, n’a pas été un élément déterminant dans la présente étude. En effet, seulement 0,8 % des malades sont nés d’une union entre parents cousins ou petits-cousins. Au niveau des ancêtres, c’est à partir de la 7e génération que la proportion de paires d’individus apparentés augmente. Ainsi, plus que la consanguinité, c’est l’endogamie qui tend à perpétuer le degré d’homogénéité génétique. La présence d’un gène délétère associé à une forte fécondité, une population peu mobile au marché matrimonial restreint ainsi qu’un avantage sélectif des porteurs sains, permettent d’expliquer la fréquence et la répartition de la mucoviscidose à la pointe de la Bretagne aujourd’hui. Cette étude participe au développement de la connaissance historique, géographique et sociale de la maladie au travers de la succession des générations. Elle présente une approche collective de la mutation et non plus individuelle ; elle a aussi un effet de prospective en tant qu’outil pour le dépistage et les soignants
The population at the root of this study is composed of patients clinically diagnosed as suffering from cystic fibrosis and having lived in Brittany some time in the course of the past fifty years. Their ancestry was traced back with the help of genealogy centres and brought together more than 250 000 kinspeople. The resulting data base, built up from these patients’ genetic and genealogical characteristics, was then used to study how the demographic patterns of the past could explain the frequency and geographical distribution of cystic fibrosis as it appears in today’s Brittany. The carriers who share the same CF mutation are kindreds. The mapping of their common ancestors’ living places shows a differential distribution, depending on specific CF mutations. These genetic relatednesses enable us to trace back the route followed by the CF gene. At the ancestors’ level, we observed marital unions at an early age, particularly for women, and frequent remarriage, particularly for men. As a consequence, married couples were prolific, thus allowing more genetic transmissions. And the geographical stability that prevailed at the time of the wedding does not seem to produce genetic diversity. Moreover, we reckoned that in terms of life expectancy there might be some selective advantage to being a healthy carrier. Inbreeding - a cause frequently referred to as an explanation for the large number of CF affected patients in Brittany - was in no way a key factor in this study. Only 0,8 % were born from first or second cousin unions. At the ancestors’ level, we must go back to the 7th generation to see a higher proportion of close kinship. Therefore, more often than consanguinity, endogamy tends to carry on a certain degree of genetic homogeneity. CF frequency of occurrence and its Breton distribution today can be accounted for by the presence of a harmful gene combined with high fertility, a relatively settled population with a limited availability of possible partners, and the selective advantage this harmful gene was for healthy carriers. This study helps to increase historical, geographical and social knowledge of CF throughout successive generations. Lt enables us to have a collective more than individual approach of the CF mutation. Lt also has t a prospective effect as a tool for the testing center and the staff
APA, Harvard, Vancouver, ISO, and other styles
18

Brillaud, Elodie Le Baut Guillaume. "ESB données historiques, physiopathologiques et aspects réglementaires /." [S.l.] : [s.n.], 2004. http://theses.univ-nantes.fr/thesemed/PHbrillaud.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
19

Hourcade, Hugo. "Énumération de motifs temporels." Electronic Thesis or Diss., Sorbonne université, 2023. http://www.theses.fr/2023SORUS079.

Full text
Abstract:
Dans le cadre de l'étude des interactions de divers acteurs au sein d'un système, la recherche de schémas comportementaux trouve nombre d'applications. Les graphes temporels qui m'intéressent dans le cadre de cette thèse présentent des tailles d'historiques tau, à savoir le nombre d'instants temporels entre le premier instant t0 et le dernier instant tf pour lesquels G n'est pas vide, de l'ordre de plusieurs millions. Je cherche donc à minimiser l'impact de tau sur les complexités spatiales et temporelles de mes algorithmes. Étant donné Delta un entier naturel, l'énumération de Delta-modules est l'énumération de tous les sous-ensemble de sommets A d'un graphe temporel L(V,E,T) tels que pour tout instant temporel t dans un intervalle de Delta instants consécutifs ou plus, les voisinages instantanés de chaque sommet de A en dehors de A soient égaux. Je présente un algorithme utilisant l'affinage de partition et des structures de données d'arbre rouge-noir pour énumérer les Delta-modules en temps quadratique de tau. L'énumération des Delta-jumeaux, pour lesquels |A|=2 est réalisée en temps logarithmique de tau avec une utilisation mémoire indépendante de tau. Étant donné H(V',E',T') un graphe temporel appelé motif, l'énumération de sous-graphes de L(V,E,T) isomorphes à H est l'énumération de toutes les paires constituées d'un instant temporel t0 de T et d'une bijection f de V' vers un sous-ensemble A de V telles qu'à chaque instant temporel entre t0 et t0+tau', les sommets de H aient exactement le même comportement entre eux à l'instant t que leurs images par f dans L à l'instant t0+t. J'établis un algorithme énumérant les sous-graphes temporels isomorphes en temps linéaire de tau. Après avoir présenté et démontré la correction et les complexités de ces divers algorithmes, je conduis une étude expérimentale afin de confirmer par la pratique le comportement de mes algorithmes
In regards to the study of interactions of agents inside a system, the search for behavioural patterns has numerous applications. The temporal graphs I consider in this thesis present history length tau, which is to say the number of temporal instants between the first instant t0 and the last instant tf for which G is not empty, greater than multiple millions. I aim at minimizing the impact of tau on the spacial and temporal complexities of my algorithms Given Delta an intenger, the enumeration of Delta-modules is the enumeration of all vertex subsets A of a temporal graph L(V,E,T) such that for all temporal instant t in an interval of Delta or more consecutive time instants, instantaneous neighbourhoods of each vertex of A outside A are equal. I present an algorithm using partition refinment and red-black tree data structures in order to enumerate Delta-modules in time quadratic in tau. Enumeration of Delta-twins, for which |A|=2 is done in time logarithmic in tau with memory use independant of tau. Given H(V',E',T') a temporal graph called pattern, enumeration of subgraphs of L(V,E,T) isomorphic to H is the enumeration of all pairs formed of a temporal instant t0 of T and a bijection f from V' to a subset A of V such that for each temporal instant between t0 and t0+tau', vertices of H display the exact same behaviour between them at instant t than their images by f in L at time instant t0+t. I present an algorithme enumerating isomorphic temporal subgraphs in time linear of tau. After having presented and demonstrated correction and complexities of said algorithms, I conduct an experimental study in order to confirm behaviour of my algorithms
APA, Harvard, Vancouver, ISO, and other styles
20

Eckert, Nicolas. "Couplage données historiques - modélisation numérique pour la prédétermination des avalanches : une approche bayésienne." Phd thesis, AgroParisTech, 2007. http://pastel.archives-ouvertes.fr/pastel-00003404.

Full text
Abstract:
Cette thèse s'intéresse au problème de la prédétermination des avalanches par couplage entre modélisation numérique et données historiques. L'assemblage s'effectue grâce au formalisme bayésien hiérarchique. La modélisation stochastique, l'inférence du modèle et la prédiction des aléas de référence sont clairement distinguées. L'échelle d'étude est tout d'abord celle d'un site avalancheux. Trois jeux d'hypothèses correspondant à différents compromis entre disponibilité des données et description de la propagation de l'avalanche sont proposés. L'incertitude liée à la méconnaissance du phénomène est combinée avec sa variabilité intrinsèque pour obtenir la loi de probabilité prédictive de la période de retour associée à n'importe quelle distance d'arrêt. Les distributions des autres variables caractérisant l'aléa sont également étudiées. Une analyse de sensibilité aux différentes hypothèses de modélisation est proposée. La prédétermination des fréquences avalancheuses sur des sites peu documentés et en contexte non stationnaire est ensuite traitée à l'échelle communale avec un modèle spatio-temporel. Celui-ci permet de quantifier les variations des occurrences avalancheuses dans les Alpes françaises au cours des soixante dernières années. Enfin, le problème du dimensionnement d'un ouvrage de protection est abordé. Le modèle stochastique est complété par les effets sur l'écoulement avalancheux d'une digue verticale et par une fonction de coût permettant l'optimisation de la hauteur de l'ouvrage. Le risque bayésien permet de ne pas séparer inférence et décision en prenant en compte l'erreur d'estimation pour le dimensionnement.
APA, Harvard, Vancouver, ISO, and other styles
21

El, Shabrawy Atef. "Comportement des ouvrages historiques soumis à des sollicitations sismiques : apport de la modélisation numérique par la méthode des éléments distincts." Vandoeuvre-les-Nancy, INPL, 1996. http://www.theses.fr/1996INPL121N.

Full text
Abstract:
La méthode des éléments distincts est devenue l'une des méthodes de modélisation numériques les mieux adaptées à l'analyse du comportement des massifs rocheux fractures. Principalement dédiée à l'analyse des milieux discontinus, la méthode des éléments distincts est utilisée ici pour étudier le comportement d'ouvrages réalisées en maçonnerie et soumis à des sollicitations sismiques. Une méthodologie s'appuyant sur cette méthode de modélisation est donc proposée pour l'analyse de la vulnérabilité sismique des ouvrages historiques. Après avoir rappelé les fondements du génie parasismique en général, nous nous attachons a présenter de façon exhaustive les difficultés liées à l'analyse structurale des ouvrages historiques en maçonnerie et les méthodes jusqu'à maintenant employées pour réaliser ces analyses. Vient ensuite une présentation des méthodes de modélisation numérique et en particulier de la méthode des éléments distincts dont nous décrivons les principes de fonctionnement. Puis, nous expliquons comment il est possible d'utiliser cette méthode pour l'analyse structurale, en particulier dans le cas de sollicitations dynamiques, des ouvrages historiques réalisés en maçonnerie. Nous mettons notamment l'accent sur l'apport de cette méthode par rapport aux méthodes de modélisation plus traditionnelles telles que la méthode des éléments finis. Nous présentons ensuite une validation de notre approche s'appuyant sur la comparaison entre un modèle numérique simple et un modèle analytique reconnu. L’analyse systématique de cas simples telles que murs et arches, mise en rapport avec des observations réelles, nous permet ensuite de conclure à l'efficacité de la démarche et de la méthode employées. Enfin, nous présentons l'analyse dynamique de cas réels (égyptiens et grecs principalement), choisis pour leur représentativité de l'ensemble des ouvrages historiques ainsi que pour les problèmes particulier qu'ils posent
APA, Harvard, Vancouver, ISO, and other styles
22

Michel, Franck. "Intégrer des sources de données hétérogènes dans le Web de données." Thesis, Université Côte d'Azur (ComUE), 2017. http://www.theses.fr/2017AZUR4002/document.

Full text
Abstract:
Le succès du Web de Données repose largement sur notre capacité à atteindre les données stockées dans des silos invisibles du web. Dans les 15 dernières années, des travaux ont entrepris d’exposer divers types de données structurées au format RDF. Dans le même temps, le marché des bases de données (BdD) est devenu très hétérogène avec le succès massif des BdD NoSQL. Celles-ci sont potentiellement d’importants fournisseurs de données liées. Aussi, l’objectif de cette thèse est de permettre l’intégration en RDF de sources de données hétérogènes, et notamment d'alimenter le Web de Données avec les données issues des BdD NoSQL. Nous proposons un langage générique, xR2RML, pour décrire le mapping de sources hétérogènes vers une représentation RDF arbitraire. Ce langage étend des travaux précédents sur la traduction de sources relationnelles, CSV/TSV et XML en RDF. Sur cette base, nous proposons soit de matérialiser les données RDF, soit d'évaluer dynamiquement des requêtes SPARQL sur la base native. Dans ce dernier cas, nous proposons une approche en deux étapes : (i) traduction d’une requête SPARQL en une requête pivot, abstraite, en se basant sur le mapping xR2RML ; (ii) traduction de la requête abstraite en une requête concrète, prenant en compte les spécificités du langage de requête de la BdD cible. Un souci particulier est apporté à l'optimisation des requêtes, aux niveaux abstrait et concret. Nous démontrons l’applicabilité de notre approche via un prototype pour la populaire base MongoDB. Nous avons validé la méthode dans un cas d’utilisation réel issu du domaine des humanités numériques
To a great extent, the success of the Web of Data depends on the ability to reach out legacy data locked in silos inaccessible from the web. In the last 15 years, various works have tackled the problem of exposing various structured data in the Resource Description Format (RDF). Meanwhile, the overwhelming success of NoSQL databases has made the database landscape more diverse than ever. NoSQL databases are strong potential contributors of valuable linked open data. Hence, the object of this thesis is to enable RDF-based data integration over heterogeneous data sources and, in particular, to harness NoSQL databases to populate the Web of Data. We propose a generic mapping language, xR2RML, to describe the mapping of heterogeneous data sources into an arbitrary RDF representation. xR2RML relies on and extends previous works on the translation of RDBs, CSV/TSV and XML into RDF. With such an xR2RML mapping, we propose either to materialize RDF data or to dynamically evaluate SPARQL queries on the native database. In the latter, we follow a two-step approach. The first step performs the translation of a SPARQL query into a pivot abstract query based on the xR2RML mapping of the target database to RDF. In the second step, the abstract query is translated into a concrete query, taking into account the specificities of the database query language. Great care is taken of the query optimization opportunities, both at the abstract and the concrete levels. To demonstrate the effectiveness of our approach, we have developed a prototype implementation for MongoDB, the popular NoSQL document store. We have validated the method using a real-life use case in Digital Humanities
APA, Harvard, Vancouver, ISO, and other styles
23

Frau, Roberto. "Utilisation des données historiques dans l'analyse régionale des aléas maritimes extrêmes : la méthode FAB." Thesis, Paris Est, 2018. http://www.theses.fr/2018PESC1051/document.

Full text
Abstract:
La protection des zones littorales contre les agressions naturelles provenant de la mer, et notamment contre le risque de submersion marine, est essentielle pour sécuriser les installations côtières. La prévention de ce risque est assurée par des protections côtières qui sont conçues et régulièrement vérifiées grâce généralement à la définition du concept de niveau de retour d’un événement extrême particulier. Le niveau de retour lié à une période de retour assez grande (de 1000 ans ou plus) est estimé par des méthodes statistiques basées sur la Théorie des Valeurs Extrêmes (TVE). Ces approches statistiques sont appliquées à des séries temporelles d’une variable extrême observée et permettent de connaître la probabilité d’occurrence de telle variable. Dans le passé, les niveaux de retour des aléas maritimes extrêmes étaient estimés le plus souvent à partir de méthodes statistiques appliquées à des séries d’observation locales. En général, les séries locales des niveaux marins sont observées sur une période limitée (pour les niveaux marins environ 50 ans) et on cherche à trouver des bonnes estimations des extrêmes associées à des périodes de retour très grandes. Pour cette raison, de nombreuses méthodologies sont utilisées pour augmenter la taille des échantillons des extrêmes et réduire les incertitudes sur les estimations. En génie côtier, une des approches actuellement assez utilisées est l’analyse régionale. L’analyse régionale est indiquée par Weiss (2014) comme une manière très performante pour réduire les incertitudes sur les estimations des événements extrêmes. Le principe de cette méthodologie est de profiter de la grande disponibilité spatiale des données observées sur différents sites pour créer des régions homogènes. Cela permet d’estimer des lois statistiques sur des échantillons régionaux plus étendus regroupant tous les événements extrêmes qui ont frappé un ou plusieurs sites de la région (...) Cela ainsi que le caractère particulier de chaque événement historique ne permet pas son utilisation dans une analyse régionale classique. Une méthodologie statistique appelée FAB qui permet de réaliser une analyse régionale tenant en compte les données historiques est développée dans ce manuscrit. Élaborée pour des données POT (Peaks Over Threshold), cette méthode est basée sur une nouvelle définition d’une durée d’observation, appelée durée crédible, locale et régionale et elle est capable de tenir en compte dans l’analyse statistique les trois types les plus classiques de données historiques (données ponctuelles, données définies par un intervalle, données au-dessus d’une borne inférieure). En plus, une approche pour déterminer un seuil d’échantillonnage optimal est définie dans cette étude. La méthode FAB est assez polyvalente et permet d’estimer des niveaux de retour soit dans un cadre fréquentiste soit dans un cadre bayésien. Une application de cette méthodologie est réalisée pour une base de données enregistrées des surcotes de pleine mer (données systématiques) et 14 surcotes de pleine mer historiques collectées pour différents sites positionnés le long des côtes françaises, anglaises, belges et espagnoles de l’Atlantique, de la Manche et de la mer du Nord. Enfin, ce manuscrit examine la problématique de la découverte et de la validation des données historiques
The protection of coastal areas against the risk of flooding is necessary to safeguard all types of waterside structures and, in particular, nuclear power plants. The prevention of flooding is guaranteed by coastal protection commonly built and verified thanks to the definition of the return level’s concept of a particular extreme event. Return levels linked to very high return periods (up to 1000 years) are estimated through statistical methods based on the Extreme Value Theory (EVT). These statistical approaches are applied to time series of a particular extreme variable observed and enables the computation of its occurrence probability. In the past, return levels of extreme coastal events were frequently estimated by applying statistical methods to time series of local observations. Local series of sea levels are typically observed in too short a period (for sea levels about 50 years) in order to compute reliable estimations linked to high return periods. For this reason, several approaches are used to enlarge the size of the extreme data samples and to reduce uncertainties of their estimations. Currently, one of the most widely used methods in coastal engineering is the Regional Analysis. Regional Analysis is denoted by Weiss (2014) as a valid means to reduce uncertainties in the estimations of extreme events. The main idea of this method is to take advantage of the wide spatial availability of observed data in different locations in order to form homogeneous regions. This enables the estimation of statistical distributions of enlarged regional data samples by clustering all extreme events occurred in one or more sites of the region. Recent investigations have highlighted the importance of using past events when estimating extreme events. When historical data are available, they cannot be neglected in order to compute reliable estimations of extreme events. Historical data are collected from different sources and they are identified as data that do not come from time series. In fact, in most cases, no information about other extreme events occurring before and after a historical observation is available. This, and the particular nature of each historical data, do not permit their use in a Regional Analysis. A statistical methodology that enables the use of historical data in a regional context is needed in order to estimate reliable return levels and to reduce their associated uncertainties. In this manuscript, a statistical method called FAB is developed enabling the performance of a Regional Analysis using historical data. This method is formulated for POT (Peaks Over Threshold) data. It is based on the new definition of duration of local and regional observation period (denominated credible duration) and it is able to take into account all the three typical kinds of historical data (exact point, range and lower limit value). In addition, an approach to identify an optimal sampling threshold is defined in this study. This allows to get better estimations through using the optimal extreme data sample in the FAB method.FAB method is a flexible approach that enables the estimation of return levels both in frequentist and Bayesian contexts. An application of this method is carried out for a database of recorded skew surges (systematic data) and for 14 historical skew surges recovered from different sites located on French, British, Belgian and Spanish coasts of the Atlantic Ocean, the English Channel and the North Sea. Frequentist and Bayesian estimations of skew surges are computed for each homogeneous region and for every site. Finally, this manuscript explores the issues surrounding the finding and validation of historical data
APA, Harvard, Vancouver, ISO, and other styles
24

Dumenieu, Bertrand. "Un système d'information géographique pour le suivi d'objets historiques urbains à travers l'espace et le temps." Paris, EHESS, 2015. http://www.theses.fr/2015EHES0157.

Full text
Abstract:
Les systèmes d'information géographiques (SIG) sont aujourd'hui fréquemment utilisés en sciences sociales et notamment en histoire pour leurs capacités de visualisation, de partage et de stockage de données historiques spatialisées. Ils ouvrent ainsi aux chercheurs en histoire des perspectives de croisement d'informations et d'analyse à grande échelle, non seulement de l'évolution de phénomènes spatialisés, mais aussi des interactions entre ces phénomènes et les transformations de l'espace. La représentation d'un espace en transformation au sein d'un SIG implique notamment la création et la manipulation de données spatio-temporelles. Créées à partir des sources d'informations sur l'espace ancien disponibles, celles-ci sont généralement hétérogènes et imparfaites. Les SIG existants ne permettent pas de modéliser et d'intégrer aisément des données hétérogènes et imparfaites au sein de bases de données spatio-temporelles. Nous proposons une approche d'intégration de données géographiques hétérogènes et imparfaites sur l'espace urbain ancien au sein d'un modèle de données spatio-temporelles permettant l'analyse des transformations de cet espace. Ces données sont saisies à partir de plans topographiques. Au travers de plusieurs étapes, allant de l'analyse des sources cartographiques utilisées à un processus semi-automatique d'intégration de données spatio-temporelles, nous proposons une approche générique permettant d'instancier une base de données spatio-temporelles à partir de cartes historiques. Celle-ci est finalement appliquée à la création d'une base de données sur le réseau des rues de Paris des XVIIIe et XIXe siècles à partir de plans topographiques de la capitale
Geographic information systems (GIS) are increasingly used for leading historical studies because of their ability to display, store and share geo-historical data. They provide an opportunity for exploring and analyzing spatialized phenomena and the interactions between such phenomena and spatial dynamics. To achieve this goal, GIS have to manage spatio-temporal data describing the transformations of geographical entities. These data are also highly imperfect since knowledge about the past is only available through imprecise or uncertain historical sources such as maps. To date, no GIS is able to integrate, manage and analyze such imperfect data. In this thesis, we focus on the integration of spatio-temporal data about urban space extracted from historical topographic maps on the city of Paris. We propose a process that allows to create spatio-temporal graphs from geohistorical vector data extracted from georeferenced maps of the city. After the analysis of the maps and the measure of their spatial and temporal imperfections, we propose a spatio-temporal model named geohistorical graph and a semi-automatic spatio-temporal data matching process able to build such graphs from vector data extracted from old topographic maps. Our method is tested and validated on the street networks of Paris extracted from maps covering the period from the late XVIIIth century to the late XlXth century
APA, Harvard, Vancouver, ISO, and other styles
25

Leprêtre, Jean-Marc. "Alcoolisme et peau : apercu historique et donnees actuelles ; a propos d'une revue de la litterature." Reims, 1994. http://www.theses.fr/1994REIMM043.

Full text
APA, Harvard, Vancouver, ISO, and other styles
26

Rajab, Ali. "Le Maroc et l'affaire du Sahara occidental : les données historiques, politiques, économiques et juridiques du problème." Lyon 2, 1989. http://www.theses.fr/1989LYO20013.

Full text
Abstract:
L'etude du maroc et de l'affaire du territoire du sahara occidental de 1956 a 1975 est a envisager dans ses aspects historiques, politiques, economiques et juridiques. Un long developpement est consacre a l'histoire lointaine du territoire du sahara occidental, c'est-a-dire depuis la conquete arabe au debut du viiie siecle jusqu'a la penetration et l'intervention militaire europeenne au cours du xixe siecle s'agissant egalement des donnees politiques, economiques et juridiques de la question, une longue analyse politique et juridique leur a ete consacree. Il s'agit en outre, des conflits frontaliers et territoriaux entre les etats interesses par le probleme du territoire du sahara occidental. Une longue analyse juridique et historique relative aux diverses conventions, actes, traites et accords internationaux qui ont ete passes avec les differentes puissances coloniales europeennes a ete faite. Et les diverses theses des differentes parties concernees par le probleme saharien occidental ont fait l'objet d'une analyse critique. Enfin, une etude historique a ete consacree aux deux dernieres dynasties marocaines a savoir la dynastie saadienne (xvie siecle) et la dynastie alaouite (xviie siecle) afin de montrer et de preciser les arguments des droits historiques et religieux du maroc et leurs fondements en ce qui concerne le territoire du sahara occidental.
APA, Harvard, Vancouver, ISO, and other styles
27

Jouanne, François. "Mesure de la déformation actuelle des Alpes occidentales et du Jura par comparaison de données géodésiques historiques." Phd thesis, Chambéry, 1994. http://tel.archives-ouvertes.fr/tel-00723714.

Full text
Abstract:
La chaîne des Alpes est encore en formation. Sa sismicité étant modérée, la déformation actuelle y est soit faible, soit en grande partie asismique. Pour mieux comprendre la tectonique actuelle du sud du Jura et du nord des Alpes occidentales, nous utilisons des comparaisons de nivellements pour obtenir les mouvements verticaux actuels et de triangulations pour mesurer les mouvements horizontaux. Les déplacements verticaux reflètent principalement la tectonique actuelle de la région, ceux liés au rebond post-glaciaire étant négligeables. La bonne correlation entre la répartition des tendances régionales des mouvements verticaux et la position des principales rampes de chevauchement montre que les déplacements verticaux traduisent l'activité de ces accidents. Pour estimer les taux de déplacement horizontal sur ces rampes, une inversion d'un profil de taux de déplacement vertical est réalisée. On obtient une vitesse de déplacement de 6 mm/an sur le chevauchement crustal de Belledonne, de 4mm/an sur le chevauchement de socle du Jura interne (Haute Chaîne) sur le soubassement du Jura externe et de 4 mm/an pour le déplacement de la couverture du Jura externe sur ce soubassement. Dans la région étudiée, le chevauchement crustal le plus externe est donc localisé entre Jura interne et Jura externe. Ce résultat est conforté par la comparaison de triangulations réalisée. Cette dernière a nécessité le développement de différents tests statistiques (test de Fischer, ellipses de confiance, calcul d'erreur sur les tenseurs de taux de déformation) qui établissent tous la présence d'une déformation importante et significative dans le Jura externe. Celle-ci est caractérisée par les tenseurs de taux de déformations qui montrent une compression proche de la direction E-W et un taux de raccourcissement de 5 mm/an. La déformation horizontale des Bauges apparaît très faible au regard de la précision des mesures. Cependant, le déplacement d'un point, au nord d'Annecy, indique une forte extension E-W de la cluse d'Annecy, résultat qui demande à être confirmé. Ainsi, par deux méthodes indépendantes, il est établi que le Jura est le front actuellement actif de la partie nord des Alpes occidentales. La déformation du Jura est caractérisée par le jeu du chevauchement du socle du Jura interne sur le Jura externe avec une vitesse de 4 à 5 mm/an.
APA, Harvard, Vancouver, ISO, and other styles
28

Langouët, Hoël. "Optimisation sans dérivées sous contraintes : deux applications industrielles en ingénierie de réservoir et en calibration des moteurs." Phd thesis, Université de Nice Sophia-Antipolis, 2011. http://tel.archives-ouvertes.fr/tel-00671987.

Full text
Abstract:
L'optimisation intervient dans de nombreuses applications IFPEN, notamment dans l'estimation de paramètres de modèles numériques à partir de données en géosciences ou en calibration des moteurs. Dans ces applications, on cherche à minimiser une fonction complexe, coûteuse à estimer, et dont les dérivées ne sont pas toujours disponibles. A ces difficultés s'ajoutent la prise en compte de contraintes non linéaires et parfois l'aspect multi-objectifs. Au cours de cette thèse, nous avons développé la méthode SQA (Sequential Quadradic Approximation), une extension de la méthode d'optimisation sans dérivées de M.J.D. Powell pour la prise en compte de contraintes à dérivées connues ou non. Cette méthode est basée sur la résolution de problèmes d'optimisation simplifiés basés sur des modèles quadratiques interpolant la fonction et les contraintes sans dérivées, construits à partir d'un nombre limité d'évaluations de celles-ci. Si la résolution de ce sous-problème ne permet pas une progression pour l'optimisation originale, de nouvelles simulations sont réalisées pour tenter d'améliorer les modèles. Les résultats de SQA sur différents benchmarks montrent son efficacité pour l'optimisation sans dérivées sous contraintes. Enfin, SQA a été appliqué avec succès à deux applications industrielles en ingénierie de réservoir et en calibration des moteurs. Une autre problématique majeure en optimisation étudiée dans cette thèse est la minimisation multi-objectifs sous contraintes. La méthode évolutionnaire Multi-Objective Covariance Matrix Adaptation, adaptée à la prise en compte des contraintes, s'est révélée très performante dans l'obtention de compromis pour la calibration des moteurs.
APA, Harvard, Vancouver, ISO, and other styles
29

Casallas-Gutiérrez, Rubby. "Objets historiques et annotations pour les environnements logiciels." Université Joseph Fourier (Grenoble), 1996. http://tel.archives-ouvertes.fr/tel-00004982.

Full text
Abstract:
Dans un environnement guidé par les procédés de fabrication de logiciel (EGPFL), la gestion de l'information est un problème complexe qui doit concilier deux besoins: gérer le produit logiciel et gérer les procédés de fabrication. Outre la grande quantité d'entités diverses et fortement interdépendantes, la gestion du produit doit prendre en compte l'aspect évolutif et les facteurs de variation du logiciel, ainsi que la nature coopérative des activités de fabrication des logiciels. La gestion des procédés recouvre la modélisation, l'exécution, l'évaluation et la supervision des procédés. Diverses informations doivent alors être prises en compte: la trace d'exécution des procédés, les événements survenus dans l'environnement et les mesures de qualité. Nous proposons les objets historiques annotés pour gérer l'information d'un EGPFL. L'objet historique constitue la notion de base d'un modèle à objets historique permettant de représenter à la fois les entités logicielles et leur évolution. La notion d'annotation vient, quant à elle, enrichir ce modèle pour permettre d'introduire des informations qui dénotent des faits (notes, mesures, observations, etc) pouvant être ponctuellement associés aux entités de l'EGPFL. Un langage de requêtes est défini afin d'accéder aux différentes informations. Grâce à ce langage, l'EGPFL dispose d'un service puissant pour rassembler, à partir de la base d'objets, les diverses informations nécessaires à l'évaluation et au contrôle des procédés de fabrication. Nous proposons également d'exploiter les possibilités offertes par notre modèle pour définir des événements et, éventuellement, en conserver un historique. Les événements permettent d'identifier des situations liant des informations provenant aussi bien de l'état courant que des états passés de l'EGPFL. C'est pourquoi la définition d'un événement peut comporter des conditions exprimées dans le langage de requêtes. L'emploi d'annotations permet d'enregistrer les occurences d'événements, ainsi qu'une partie de l'état du système. Une implantation du modèle est proposée dans le système Adèle
APA, Harvard, Vancouver, ISO, and other styles
30

Tardy, Benjamin. "Méthodes d'exploitation de données historiques pour la production de cartes d'occupation des sols à partir d'images de télédétection et en absence de données de référence de la période à cartographier." Thesis, Toulouse 3, 2019. http://www.theses.fr/2019TOU30261.

Full text
Abstract:
L'étude des surfaces continentales constitue un enjeu majeur à l'échelle mondiale pour le suivi et la gestion des territoires, notamment en matière de répartition entre l'expansion urbaine, terres agricoles et espaces naturels. Dans ce contexte, les cartes d'OCcupation des Sols (OCS) caractérisant la couverture biophysique des terres émergées sont un atout essentiel pour l'analyse des surfaces continentales. Les algorithmes de classification supervisée permettent, à partir de séries temporelles annuelles d'images satellites et de données de référence, de produire automatiquement la carte de la période correspondante. Cependant, les données de référence sont une information coûteuse à obtenir surtout sur de grandes étendues. En effet, les campagnes de relevés terrain requièrent un fort coût humain, et les bases de données sont associées à de longs délais de mises à jour. De plus, ces données de référence disposent d'une validité limitée à la période correspondante, en raison des changements d'OCS. Ces changements concernent essentiellement l'expansion urbaine au détriment des surfaces naturelles, et les terres agricoles soumises à la rotation des cultures. L'objectif général de la thèse vise à proposer des méthodes de production de cartes d'OCS sans exploiter les données de référence de la période correspondante. Les travaux menés s'appuient sur un historique d'OCS. Cet historique regroupe toutes les informations disponibles pour la zone concernée : cartes d'OCS, séries temporelles, données de référence, modèles de classification, etc. Une première partie des travaux considère que l'historique ne contient qu'une seule période. Ainsi, nous avons proposé un protocole de classification naïve permettant d'exploiter un classifieur déjà entraîné sur une nouvelle période. Les performances obtenues ont montré que cette approche se révèle insuffisante, requérant ainsi des méthodes plus performantes. L'adaptation de domaine permet d'aborder ce type de problématique. Nous avons considéré deux approches : la projection de données via une analyse canonique des corrélations et le transport optimal. Ces deux approches permettent de projeter les données de l'historique afin de réduire les différences avec l'année à traiter. Néanmoins ces approches offrent des résultats équivalents à la classification naïve pour des coûts de production bien plus significatifs. Une seconde partie des travaux considère que l'historique contient au moins deux périodes de données. [...]
The study of continental surfaces is a major global challenge for the monitoring and management of territories, particularly in terms of the distribution between urban expansion, agricultural land and natural areas. In this context, land cover maps characterizing the biophysical cover of land are an essential asset for the analysis of continental surfaces. Supervised classification algorithms allow, from annual time series of satellite images and reference data, to automatically produce the map of the corresponding period. However, reference data is expensive information to obtain, especially over large areas. Indeed, field survey campaigns require a high human cost, and databases are associated with long update times. In addition, these reference data are valid only for the corresponding period due to changes in land use. These changes mainly concern urban expansion at the expense of natural areas, and agricultural land subject to crop rotation. The general objective of the thesis is to propose methods for producing land cover maps without exploiting the reference data of the corresponding period. The work carried out is based on the creation of a land cover history. This history includes all the information available for the area of interest: land cover maps, image time series, reference data, classification models, etc. A first part of the work considers that the history contains only one period. Thanks to this history we proposed a \g{naïve} classification approach allowing to use a classifier already trained, over a new period. The performances obtained shown that this approach is insufficient, thus requiring more efficient methods. Domain adaptation makes it possible to address this type of problem. We considered two approaches: data projection via canonical correlation analysis and optimal transport. These two approaches allow the historical data to be projected in order to reduce differences with the year to be processed. Nevertheless, these approaches offer results equivalent to the naive classification for much more significant production costs. [...]
APA, Harvard, Vancouver, ISO, and other styles
31

Durand, Raphaël. "La mort chez les Bituriges Cubes. Approches archéologiques et données biologiques d'une cité de Gaule romaine." Phd thesis, Université Panthéon-Sorbonne - Paris I, 2005. http://tel.archives-ouvertes.fr/tel-00337828.

Full text
Abstract:
L'objectif de nos recherches est de caractériser les pratiques funéraires et plus généralement les comportements des populations vivantes vis-à-vis des morts : traitement et dépôt du corps, mobilier funéraire, architecture funéraire mais également gestion des espaces funéraires, topographie et dynamique de l'occupation funéraire.
Pour cela, nous avons établi un corpus répertoriant plus de 400 sites. Intégré à un SIG, il nous a permis d'observer la répartition des gisements funéraires sur le territoire. Les deux points les plus remarquables sont la différence d'implantation entre les sites funéraires et ceux d'habitats et le hiatus existant entre les nécropoles du Haut-Empire et celles de l'Antiquité tardive.
Après avoir sélectionné cinq sites, nous avons entrepris une analyse de plus de 1200 sépultures en associant données archéologiques et anthropologiques pour apporter de nouveaux éléments de réflexions à la compréhension des pratiques funéraires gallo-romaines. Dans le cas des sépultures à incinération, nous nous sommes plus particulièrement intéressé aux gestes de collecte et de stockage des restes du défunt. Pour les inhumations, nous avons surtout porté notre attention sur les apports des données biologiques à la définition des regroupements familiaux ou sociaux.
L'ensemble de ces données souligne l'existence de faciès locaux au sein de la cité et met en évidence l'importance du contexte archéologique dans lequel s'inscrit la nécropole pour la caractérisation des gestes funéraires.
APA, Harvard, Vancouver, ISO, and other styles
32

Blaise, Jean-Yves. "Le formalisme objet appliqué à l'étude de l'édifice patrimonial : Problèmes de modélisation et d'échanges de données sur le réseau Internet." Phd thesis, Aix-Marseille 3, 2003. http://tel.archives-ouvertes.fr/tel-00268228.

Full text
Abstract:
Dans ce travail nous évaluons la pertinence et la portée d'un ensemble de formalismes informatiques récents sur l'étude du patrimoine architectural, champ d'application dont nous montrons les spécificités et leurs implications. Le problème que pose ce travail peut être présenté ainsi : le raisonnement par classifications que le formalisme objet autorise est-il pertinent pour décrire un modèle de l'édifice patrimonial; les concepts classifiés peuvent-ils être le maillon fédérateur d'une chaîne d'applications relevant de points de vues bien distinct sur l'édifice patrimonial ? Nous définissons une méthodologie d'analyse de l'édifice qui se veut générique, et un ensemble d'outils d'évaluation et d'exploitation du modèle.
Nous montrons qu'une analyse a priori du corpus d'éléments physiques formant l'édifice peut grandement en faciliter l'étude. Mesure, représentations et documentation, trois exemples d'applications abordés, deviennent dans ce cadre des processus visant à renseigner le modèle et ses instances. Nous montrons que la compréhension globale de l'édifice bâti et de son évolution est mieux assurée.
APA, Harvard, Vancouver, ISO, and other styles
33

Payrastre, Olivier. "Faisabilité et utilité du recueil de données historiques pour l'étude des crues extrêmes de petits cours d'eau - Etude du cas de quatre bassins versants affluents de l'Aude." Phd thesis, Ecole des Ponts ParisTech, 2005. http://pastel.archives-ouvertes.fr/pastel-00001792.

Full text
Abstract:
Ce mémoire traite de l'estimation de la fréquence d'occurrence des crues éclair, dans des petits cours d'eau de la région méditerranéenne. Pour préciser l'étude statistique de ces événements, relativement rares, l'idée développée a été de reconstituer des historiques de crues sur une période pouvant aller jusqu'à deux siècles. Quatre petits cours d'eau affluents de l'Aude, dont la surface n'excède pas 200 km2, ont été étudiés. Une méthodologie de recherche d'informations historiques, déjà appliquée avec succès à des cours d'eau français plus importants, a été reprise. Elle a permis de mettre en évidence les fonds d'archives dignes d'intérêt dans le cas de l'étude des cours d'eau de petite taille. Ces fonds sont essentiellement locaux (archives départementales, et archives des services de l'état chargés de l'hydrométrie et de l'annonce des crues). Les fonds à caractère national (Archives Nationales, fonds M.Pardé, fonds historique de l'ENPC), en revanche, présentent un intérêt secondaire, et l'exploitation des archives de la presse s'est également avérée décevante. Les documents d'archives finalement valorisés proviennent pour l'essentiel des Services des Ponts et Chaussées, et des Services Vicinaux (séries S et O aux Archives Départementales). Ces documents s'avèrent suffisamment riches, dans les quatre cas étudiés, pour reconstituer des historiques de crues d'une durée d'un à deux siècles. Il est également possible d'évaluer le seuil de perception associé à ces séries, ainsi que le débit de pointe des principales crues. Les estimations de débit réalisées restent toutefois incertaines et ont pour cette raison été représentées sous forme d'intervalles de débits possibles. L'exploitation statistique de ces séries met tout d'abord en évidence l'hétérogénéité des débits de crues parmi les cours d'eau étudiés. L'intérêt des données historiques est ensuite clairement mis en évidence, à la fois pour effectuer le choix de distributions statistiques aptes à représenter les séries observées, puis pour préciser le calage de ces distributions. Il apparaît surtout que les risques d'erreurs sont extrêmement importants, lorsque ces méthodes consistant à ajuster des distributions statistiques aux séries observées, sont appliquées à partir des séries systématiques de courte durée. Les informations historiques permettent de fiabiliser ces méthodes, même lorsque les informations valorisées sont très incomplètes (par exemple limitées au décompte des dépassements d'un seuil ou à une crue historique unique). Par comparaison, la méthode du Gradex apparaît beaucoup plus robuste lorsque seules les données systématiques sont disponibles. Elle donne des résultats très cohérents avec les données historiques, et reproduit notamment très bien, à condition d'évaluer correctement le facteur de forme, la variabilité des débits parmi les bassins étudiés. Mais cette variabilité des débits devra tout de même être mieux expliquée, avant d'espérer extrapoler les résultats obtenus à des bassins non jaugés notamment.
APA, Harvard, Vancouver, ISO, and other styles
34

Payrastre, Olivier Renaud. "Faisabilité et utilité du recueil de données historiques pour l'étude des crues extrêmes de petits cours d'eau : étude du cas de quatre bassins versants affluents de l'Aude." Marne-la-vallée, ENPC, 2005. http://www.theses.fr/2005ENPC0033.

Full text
APA, Harvard, Vancouver, ISO, and other styles
35

Kuentz, Anna. "Un siècle de variabilité hydro-climatique sur le bassin de la Durance : Recherches historiques et reconstitutions." Thesis, Paris, AgroParisTech, 2013. http://www.theses.fr/2013AGPT0047/document.

Full text
Abstract:
Dans un contexte de variabilité climatique et de multiplication des usages de l'eau, la compréhension et la prévision de la variabilité des débits des cours d'eau est aujourd'hui un enjeu majeur pour améliorer la gestion des ressources en eau à l'échelle des bassins versants. En France, le bassin versant de la Durance (Alpes du Sud), lieu de multiples usages de l'eau (hydroélectricité, agriculture, alimentation en eau potable, loisirs), fait l'objet d'une attention particulière en ce qui concerne les impacts du changement climatique qui pourraient être importants du fait de sa situation géographique et de son régime partiellement nival, et remettre en question les équilibres en place permettant le partage de la ressource. Dans l'optique d'une meilleure anticipation de la variabilité hydrologique d'un bassin versant, bien connaître le passé est une étape fondamentale permettant à la fois une meilleure connaissance du fonctionnement hydrologique du bassin et une mise en perspective des projections hydro-climatiques futures. Cette thèse a pour objectif et résultat principal de faire progresser l'état des connaissances sur la variabilité hydrologique du bassin de la Durance à l'échelle du dernier siècle. Deux axes principaux ont été développés pour remplir cet objectif. Une première étape a été la recherche et la mise au jour d'un ensemble de longues séries hydrométriques concernant la Durance et ses affluents, permettant d'élever à 11 le nombre de séries centenaires de débits journaliers aujourd'hui disponibles sur ce bassin. Les nombreux documents accompagnant les données retrouvées nous ont par ailleurs permis de retracer, pour une partie de ces séries, l'évolution des méthodes utilisées pour les construire. Un processus de simulation des méthodes anciennes à partir de données horaires disponibles sur la période récente nous a permis de quantifier l'incertitude associée à ces méthodes et de mettre en évidence des biais importants causés par celles-ci sur certaines portions de séries. Une méthode de correction a été proposée et appliquée à plusieurs séries. Le deuxième axe de notre travail a consisté en la reconstitution de séries hydrologiques en différents points du bassin. À cette fin, nous avons présenté et appliqué une méthode originale appelée ANATEM de reconstitution de séries climatiques à l'échelle du bassin versant à partir de données climatiques de grande échelle (champs de pressions atmosphériques), combinées à des informations plus régionales (séries de précipitations ou de températures observées). Les séries climatiques ainsi reconstituées ont ensuite été utilisées en entrée d'un modèle hydrologique pour construire des séries de débits. Ce processus nous a permis d'obtenir une vingtaine de séries hydrologiques couvrant la période 1884-2010 sur le bassin de la Durance. La comparaison des reconstitutions hydro-climatiques avec les longues séries de débits observés aujourd'hui disponibles a permis de valider la chaîne de reconstitution sur une période de plus d'un siècle. Les séries observées et reconstituées illustrent finalement la variabilité hydrologique du bassin de la Durance qui se caractérise par une alternance de périodes sèches et humides à l'échelle de la décennie, ainsi que par une légère tendance à la baisse des débits. Ces longues séries de l'hydrologie du passé permettront de mettre en perspective les études prospectives sur les ressources en eau disponibles à l'échelle du siècle prochain
Understanding and predicting hydrological variability is becoming a major issue to improve water resources management at the watershed scale, as climate variability and multipurpose use of water increase stress on the available resources. In France, the Durance watershed (South part of the Alps) is both characterised by numerous water-related activities such as hydropower, irrigation, water supply, tourism, and by a wide range of meteorological contexts ranging from mountainous to dry Mediterranean watersheds. As a consequence, this watershed appears as very sensitive to observed and projected climate variability, with an impact on water resources sufficient to question the current balance between users. In order to better forecast the Durance watershed hydrological variability, tracing back its past evolution is an essential step. Indeed, historical knowledge provides a better understanding of how the watershed works, and put into perspective hydro meteorological projections for the next century. The main goal of this Ph.D. thesis is then to improve our knowledge of the hydrological variability of the Durance watershed over the last century. Two main themes have been developed.The first step focused on historical research, bringing to light 11 centennial time-series of daily streamflow on the Durance watershed. Those data were quite well documented, allowing us to follow the evolution of the methods used to construct some of those time-series. Based on recent streamflow time-series, a simulation process allowed us to quantify the uncertainty associated to the methods used in the past, and to highlight the significant biases they carried on some periods of time. A correction process was then developed, leading to the partial revision of some of the time-series. A second step involved reconstructing hydrological time-series at different points of the watershed. An original method, called ANATEM, has been introduced and exhaustively applied to rebuild climatological time-series at the watershed scale. This method is based on the use of large scale climatological variables (atmospheric pressure fields) combined with regional scale observations (observed precipitation or air temperature). Those reconstructed climatological time-series were then prescribed in a rainfall-runoff model, allowing the computation of hydrological simulations on the 1884-2010 period. The comparison of the simulated data with our 11 centennial observed time series allowed us to validate our hydro-climatological reconstruction chain over more than a century. Finally, the observed and simulated time-series illustrate the climatological and hydrological variability of the Durance watershed. This variability is characterised by the succession of alternatively dry and humid periods lasting for ten to fifteen years, and by a slight trend to streamflow decrease. These long-term hydrological time-series will then put into perspective future investigations on water resources available over the next century
APA, Harvard, Vancouver, ISO, and other styles
36

Saint-Marc, Cécile. "Formalisation et géovisualisation d'événements historiques issus de risques naturels pour la compréhension des dynamiques spatiales : application aux inondations ayant touché le système ferroviaire français." Thesis, Université Grenoble Alpes (ComUE), 2017. http://www.theses.fr/2017GREAS024/document.

Full text
Abstract:
Cette thèse a été conduite dans le cadre d’une convention industrielle avec SNCF Réseau. Elle se situe dans le domaine de la géovisualisation d’informations spatio-temporelles, et porte plus particulièrement sur l’élaboration de méthodes de visualisation cartographiques adaptées à l’analyse des impacts des inondations sur le système ferroviaire. Les événements historiques sont une source d’informations importante pour la compréhension et la gestion des risques naturels. La cartographie s’est imposée comme un outil clé pour appréhender les risques dans leurs contextes territoriaux. Mais l’élaboration de visualisations cartographiques qui soient lisibles tout en restituant la complexité des processus survenus lors d’une catastrophe naturelle n’est pas aisée. Les verrous principaux sont la nécessité de représenter à la fois les dimensions spatiales et temporelles des événements issus de risques, le besoin de visualiser les effets dominos, qui conduisent à amplifier les dommages, et la volonté d’adapter les représentations aux besoins et aux capacités cognitives des utilisateurs. Ce travail a conduit à quatre contributions. La première contribution a consisté à formaliser les récits d’inondations dans une ontologie de domaine, qui décrit à la fois les événements issus d’inondations, les effets dominos et leurs impacts sur le système ferroviaire et les mesures de réaction pour ramener le système ferroviaire à l’état d’équilibre. Cinq cas d’inondations historiques ont été instanciés dans le modèle. Leur étude a permis de formuler des principes sémiologiques génériques pour cartographier les récits d’inondations, ce qui constitue la deuxième contribution. La troisième contribution est la production d’une interface de géovisualisation intégrant des représentations graphiques innovantes pour visualiser les temporalités associées aux événements. Cette interface de géovisualisation a fait l’objet d’une expérimentation auprès des experts ferroviaires. Les résultats ont validé les propositions relatives à la représentation du temps mais ont infirmé les propositions de visualisation des effets dominos. Suite à l’analyse des résultats, la quatrième contribution consiste en un modèle de protocole expérimental réutilisable, adapté au test d’interfaces de géovisualisation
This research was led in an industrial partnership with SNCF Réseau. In the field of geovisualization of spatio-temporal information, it focuses on developing cartographical visualization methods adapted to the analysis of the impacts of floods on the railway system.Historical events are of great help to understand and manage natural risks. Cartography became a key tool to analyze risks in their territorial contexts. But making maps which remain legible while showing all the complexity of risk processes that occurred during natural disaster is not easy. The main challenges are the need to represent both the temporal and the spatial dimensions of risk events, the need to visualize domino-effect, because they often lead to worsen damages, and the will to adapt representations to the cognitive capacities of users.This research resulted in four contributions. The first one is the formalization of flood narratives in a domain ontology, which describes flood events, domino-effects, their impacts on the railway system and also response measures to restore the system. Five case studies of historical floods were instantiated in the model. Resulting from their study, the second contribution consists in generic semiology principles to visualize the narratives of floods on maps. The third contribution is a geovisualization interface, which includes original graphical representations to visualize the temporal features associated with flood events. This geovisualization interface was tested in an experiment with expert users of the railway field. Results confirmed the proposals of representation of time but disconfirm proposals of visualization of domino effects. The analysis of results led to the fourth contribution, which consists in a reusable model of an experimental procedure that is adapted to test geovisualization interfaces
APA, Harvard, Vancouver, ISO, and other styles
37

Rousseau, Anne. "Jacques Bertin et la chanson poétique : un art à la première personne : analyse littéraire, musicale et scénique à partir de données biographiques, historiques et critiques /." Lille : A.N.R.T, 2003. http://catalogue.bnf.fr/ark:/12148/cb390576856.

Full text
APA, Harvard, Vancouver, ISO, and other styles
38

Gouriou, Thomas. "Evolution des composantes du niveau marin à partir d'observations de marégraphie effectuées depuis la fin du 18ème siècle en Charente-Maritime." Phd thesis, Université de La Rochelle, 2012. http://tel.archives-ouvertes.fr/tel-00818425.

Full text
Abstract:
Les estimations de la remontée générale du niveau de la mer, de l'ordre de 17 ± 2 cm sur le siècle dernier, masquent une réalité très variable d'une région à l'autre. Qu'en est-il du littoral charentais ? Des séries temporelles de plus de 40-50 ans sont souvent indispensables pour tirer des tendances fiables à long terme sur les composantes du niveau marin : niveau moyen de la mer, ondes de marée et effets météorologiques. Or, de nombreux lots de mesures marégraphiques du littoral charentais " sommeillaient " dans les centres d'archive français, i.e. : La Rochelle-Vieux port (1775-1892), La Rochelle-La Pallice (1885-auj.), île d'Aix (1824-auj.), fort Enet (1859-1873), fort Boyard(1873-1909) et Cordouan (1812-1994). Les objectifs de nos travaux de recherche étaient multiples : inventorier,sauvegarder et numériser des lots de mesures historiques du niveau marin, puis construire des séries temporelles recomposées à partir de ces lots de mesures hétérogènes, temporellement et spatialement, et enfin les exploiter pour mieux décrire et comprendre l'évolution à long terme du niveau de la mer. La qualité des trois séries construites (LaRochelle : 1775-auj. ; Aix-Enet-Boyard : 1824-auj. ; et Cordouan : 1812-1994) a ensuite été éprouvée en détail afin d'évaluer le niveau de précision de notre reconstruction. A partir de ces séries inédites, nous avons pu étudier l'évolution des composantes du niveau marin. Suite à ces travaux, nous fournissons un inventaire le plus exhaustif possible détaillant les mesures de 25 observatoires de Charente-Maritime, de 1775 à aujourd'hui. Les données des séries temporelles ainsi que des éléments permettant d'apprécier leur qualité seront bientôt disponibles en ligne sur REFMAR (refmar.shom.fr), SONEL (www.sonel.org) et au PSMSL (www.psmsl.org). Nos résultats positifs nous ont permis de reconstruire une série encore plus globale, celle du pertuis d'Antioche, à partir des moyennes mensuelles du niveau marin des séries de La Rochelle et d'Aix-Enet-Boyard. Parmi les résultats marquants obtenus,le niveau moyen de la mer s'est élevé de +1,38 ± 0,08 mm/an dans le pertuis d'Antioche sur la période 1860-2010.Ce résultat est cohérent avec Liverpool (+1,2 ± 0,1 mm/an sur la période 1858-1997 [Woodworth, 1999a]) et avec les récents résultats suggérant que l'élévation du niveau marin sur les côtes atlantiques européennes est moins importante qu'au niveau mondial (+1,7 ± 0,3 mm/an sur la période 1870-2004 [Church & White, 2006]).
APA, Harvard, Vancouver, ISO, and other styles
39

Edwards, José Miguel. "Joyful economists : étude des relations historiques entre analyse économique et analyse psychologique du point de vue de "l'économie du bonheur"." Phd thesis, Paris 1, 2009. http://www.theses.fr/2009PA010063.

Full text
Abstract:
Cette thèse traite de l'histoire des relations entre l'analyse économique et l'analyse psychologique du point de vue de l'histoire de « l'économie du bonheur» (The Economics of Happiness). Elle comporte trois parties. La première (The Economics of Happiness) traite du développement historique de l'économie du bonheur et la divise en deux périodes: depuis la première analyse économique des données de bonheur (1974) jusqu'à la fin du XXème siècle, et ensuite. La deuxième partie de la thèse (Bypassing Behavior Control) utilise cette histoire comme point de départ et étudie l'histoire des relations entre l'analyse économique et la psychologie expérimentale. Elle compare deux visions alternatives du comportement du consommateur: en tant qu'agent rationnel qui répond à ses préférences; et en tant qu'influencé par son entourage socio-économique, ainsi que par les pratiques publicitaires des producteurs. La troisième et dernière partie de la thèse (Subjective Quantification in Economics), étudie l'histoire de l'usage économique de données subjectives. Elle est centrée sur le développement croissant d'analyses économiques de données de bonheur (subjective well-being), de données d'anticipations. (economic expectations) et d'évaluations contingentes (contingent valuations). Elle montre que ces analyses ont été adoptées par des économistes en tant qu'outils de gouvernement et contrôle économique (plutôt qu'outils scientifiques) et explique ainsi l'émergence des dernières analyses des économistes du bonheur, qui utilisent des données de satisfaction comme instruments d'évaluation des politiques environnemen1ales (the life satisfaction approach for valuing environmental goods).
APA, Harvard, Vancouver, ISO, and other styles
40

Kuentz, Anna. "Un siècle de variabilité hydro-climatique sur le bassin de la Durance : Recherches historiques et reconstitutions." Electronic Thesis or Diss., Paris, AgroParisTech, 2013. http://www.theses.fr/2013AGPT0047.

Full text
Abstract:
Dans un contexte de variabilité climatique et de multiplication des usages de l'eau, la compréhension et la prévision de la variabilité des débits des cours d'eau est aujourd'hui un enjeu majeur pour améliorer la gestion des ressources en eau à l'échelle des bassins versants. En France, le bassin versant de la Durance (Alpes du Sud), lieu de multiples usages de l'eau (hydroélectricité, agriculture, alimentation en eau potable, loisirs), fait l'objet d'une attention particulière en ce qui concerne les impacts du changement climatique qui pourraient être importants du fait de sa situation géographique et de son régime partiellement nival, et remettre en question les équilibres en place permettant le partage de la ressource. Dans l'optique d'une meilleure anticipation de la variabilité hydrologique d'un bassin versant, bien connaître le passé est une étape fondamentale permettant à la fois une meilleure connaissance du fonctionnement hydrologique du bassin et une mise en perspective des projections hydro-climatiques futures. Cette thèse a pour objectif et résultat principal de faire progresser l'état des connaissances sur la variabilité hydrologique du bassin de la Durance à l'échelle du dernier siècle. Deux axes principaux ont été développés pour remplir cet objectif. Une première étape a été la recherche et la mise au jour d'un ensemble de longues séries hydrométriques concernant la Durance et ses affluents, permettant d'élever à 11 le nombre de séries centenaires de débits journaliers aujourd'hui disponibles sur ce bassin. Les nombreux documents accompagnant les données retrouvées nous ont par ailleurs permis de retracer, pour une partie de ces séries, l'évolution des méthodes utilisées pour les construire. Un processus de simulation des méthodes anciennes à partir de données horaires disponibles sur la période récente nous a permis de quantifier l'incertitude associée à ces méthodes et de mettre en évidence des biais importants causés par celles-ci sur certaines portions de séries. Une méthode de correction a été proposée et appliquée à plusieurs séries. Le deuxième axe de notre travail a consisté en la reconstitution de séries hydrologiques en différents points du bassin. À cette fin, nous avons présenté et appliqué une méthode originale appelée ANATEM de reconstitution de séries climatiques à l'échelle du bassin versant à partir de données climatiques de grande échelle (champs de pressions atmosphériques), combinées à des informations plus régionales (séries de précipitations ou de températures observées). Les séries climatiques ainsi reconstituées ont ensuite été utilisées en entrée d'un modèle hydrologique pour construire des séries de débits. Ce processus nous a permis d'obtenir une vingtaine de séries hydrologiques couvrant la période 1884-2010 sur le bassin de la Durance. La comparaison des reconstitutions hydro-climatiques avec les longues séries de débits observés aujourd'hui disponibles a permis de valider la chaîne de reconstitution sur une période de plus d'un siècle. Les séries observées et reconstituées illustrent finalement la variabilité hydrologique du bassin de la Durance qui se caractérise par une alternance de périodes sèches et humides à l'échelle de la décennie, ainsi que par une légère tendance à la baisse des débits. Ces longues séries de l'hydrologie du passé permettront de mettre en perspective les études prospectives sur les ressources en eau disponibles à l'échelle du siècle prochain
Understanding and predicting hydrological variability is becoming a major issue to improve water resources management at the watershed scale, as climate variability and multipurpose use of water increase stress on the available resources. In France, the Durance watershed (South part of the Alps) is both characterised by numerous water-related activities such as hydropower, irrigation, water supply, tourism, and by a wide range of meteorological contexts ranging from mountainous to dry Mediterranean watersheds. As a consequence, this watershed appears as very sensitive to observed and projected climate variability, with an impact on water resources sufficient to question the current balance between users. In order to better forecast the Durance watershed hydrological variability, tracing back its past evolution is an essential step. Indeed, historical knowledge provides a better understanding of how the watershed works, and put into perspective hydro meteorological projections for the next century. The main goal of this Ph.D. thesis is then to improve our knowledge of the hydrological variability of the Durance watershed over the last century. Two main themes have been developed.The first step focused on historical research, bringing to light 11 centennial time-series of daily streamflow on the Durance watershed. Those data were quite well documented, allowing us to follow the evolution of the methods used to construct some of those time-series. Based on recent streamflow time-series, a simulation process allowed us to quantify the uncertainty associated to the methods used in the past, and to highlight the significant biases they carried on some periods of time. A correction process was then developed, leading to the partial revision of some of the time-series. A second step involved reconstructing hydrological time-series at different points of the watershed. An original method, called ANATEM, has been introduced and exhaustively applied to rebuild climatological time-series at the watershed scale. This method is based on the use of large scale climatological variables (atmospheric pressure fields) combined with regional scale observations (observed precipitation or air temperature). Those reconstructed climatological time-series were then prescribed in a rainfall-runoff model, allowing the computation of hydrological simulations on the 1884-2010 period. The comparison of the simulated data with our 11 centennial observed time series allowed us to validate our hydro-climatological reconstruction chain over more than a century. Finally, the observed and simulated time-series illustrate the climatological and hydrological variability of the Durance watershed. This variability is characterised by the succession of alternatively dry and humid periods lasting for ten to fifteen years, and by a slight trend to streamflow decrease. These long-term hydrological time-series will then put into perspective future investigations on water resources available over the next century
APA, Harvard, Vancouver, ISO, and other styles
41

Mechkour, Mourad. "Emir2 : un modèle étendu de présentation et de correspondance d'images pour la recherche d'informations : application a un corpus d'images historiques." Université Joseph Fourier (Grenoble), 1995. http://www.theses.fr/1995GRE10201.

Full text
Abstract:
La définition d'un modèle de documents et d'un modèle de correspondance sont les deux problèmes clé dans le développement d'un système de recherche d'informations. Nous tentons dans le cadre de cette thèse d'apporter des solutions originales à ces deux problèmes pour le cas des documents images, et qui peuvent être généralisées à d'autres types de média. Nous avons donc défini un modèle étendu (EMIR2) qui permet de décrire le contenu des images et de fournir une fonction qui mesure la similarité entre deux images. Dans EMIR2 une image est considérée à la fois comme un objet complexe et multifacettes. Ainsi chaque image est décrite par l'association d'un ensemble de vues dans une structure homogène regroupant les facettes jugées pertinentes pour son contenu. Dans EMIR2 nous considérons essentiellement la vue physique et la vue logique, qui regroupe une vue structurelle, une vue spatiale, une vue perceptive, et des vues symboliques. Ce modèle d'image et son langage de requête ont été formalisé en utilisant un formalisme mathématique. Le modèle de correspondance permet de comparer deux images, dont une pouvant représenter une requête, et d'estimer la valeur mesurant le degré de similarité entre elles. La fonction de correspondance développée est basée sur une extension du modèle logique de recherche d'information. Les éléments de base sont décrits dans un formalisme qui est une extension du formalisme des graphes conceptuels de Sowa
APA, Harvard, Vancouver, ISO, and other styles
42

Canavaggio, Jean-François. "TEMPOS : un modèle d'historiques pour un SGBD temporel." Phd thesis, Université Joseph Fourier (Grenoble), 1997. http://tel.archives-ouvertes.fr/tel-00004924.

Full text
Abstract:
Un SGBD temporel doit offrir les fonctionnalités permettant aux applications de dater les informations et de gérer l'histoire de leur évolution. Cette thèse présente le modèle d'historiques TEMPOS et le prototype qui a été réalisé au dessus du SGBD O2. TEMPOS s'appuie sur un modèle du temps, qui permet de manipuler des valeurs temporelles, simples et complexes, exprimées dans différentes unités. Le jeu d'unité est extensible, et les opérations définies sont indépendantes des unités. La multiplicité des formes externes des valeurs temporelles est également prise en compte. Le modèle d'historiques proposé dans TEMPOS intègre les fonctionnalités essentielles attendues pour gérer la dimension historique des informations d'une base de données. La définition de différents types d'historiques (discret, en escalier, interpolé) permet de donner la signification des valeurs saisies et d'interpoler les autres valeurs. Ainsi, en TEMPOS, un historique est vu comme une chronique (séquence de valeurs datées), un domaine temporel d'observation, et une fonction d'interpolation. Le modèle permet diverses structurations des historiques basées sur le regroupement d'instants. Les opérations d'interrogation des historiques sont issues de l'extension temporelle des opérateurs de l'algèbre relationnelle et également d'une adaptation d'opérateurs sur les séquences, qui permettent en particulier de raisonner sur la succession dans le temps. Les opérations classiques de mise à jour sont étendues pour prendre en compte la dimension temporelle. Toutes les opérations sur les historiques sont définies de manière à être indépendantes de la représentation et de l'unité d'observation temporelle des historiques. Le prototype comprend une hiérarchie de classes implantant les types et les opérations proposés dans TEMPOS, et un préprocesseur TempOQL permettant de manipuler des valeurs temporelles dans des requêtes OQL.
APA, Harvard, Vancouver, ISO, and other styles
43

Haloubi, Ahmad. "Les Plantes des terrains salés et désertiques, vues par les anciens arabes confrontation des données historiques avec la classification des végétaux, leur état et leur répartition actuels en Proche-Orient /." Grenoble 2 : ANRT, 1988. http://catalogue.bnf.fr/ark:/12148/cb376142123.

Full text
APA, Harvard, Vancouver, ISO, and other styles
44

Flores, Ignacio. "On the empirical measurement of inequality." Thesis, Paris 1, 2019. http://www.theses.fr/2019PA01E003/document.

Full text
Abstract:
Le 1er chapitre présente une série de 50 ans sur les hauts revenus chiliens basée sur des données fiscales et comptes nationaux. L’étude contredit les enquêtes, selon lesquelles les inégalités diminuent les 25 dernières années. Au contraire, elles changent de direction à partir de 2000. Le Chili est parmi les pays les plus inégalitaires de l’OCDE et l’Amérique latine. Le 2ème chapitre mesure la sous-estimation des revenus factoriels dans les données distributives. Les ménages ne reçoivent que 50% des revenus du capital brut, par opposition aux firmes. L’hétérogénéité des taux de réponse et autres problèmes font que les enquêtes ne capturent que 20% de ceux-ci, contre 70% du revenu du travail. Cela sous-estime l’inégalité,dont les estimations deviennent insensibles à la "capital share" et sa distribution. Je formalise à partir d’identités comptables pour ensuite calculer des effets marginaux et contributions aux variations d’inégalité. Le 3ème chapitre présente une méthode pour ajuster les enquêtes. Celles-ci capturent souvent mal le sommet de la distribution. La méthode présente plusieurs avantages par rapport aux options précédentes : elle est compatible avec les méthodes de calibration standard ; elle a des fondements probabilistes explicites et préserve la continuité des fonctions de densité ; elle offre une option pour surmonter les limites des supports d’enquête bornées; et elle préserve la structure de micro données en préservant la représentativité des variables sociodémographiques. Notre procédure est illustrée par des applications dans cinq pays, couvrant à la fois des contextes développés et moins développés
The 1st chapter presents historical series of Chilean top income shares over a period of half a century, mostly using data from tax statistics and national accounts. The study contradicts evidence based on survey data, according to which inequality has fallen constantly over the past 25 years. Rather, it changes direction, increasing from around the year 2000. Chile ranks as one of the most unequal countries among both OECD and Latin American countries over the whole period of study. The 2nd chapter measures the underestimation of factor income in distributive data. I find that households receive only half of national gross capital income,as opposed to corporations. Due to heterogeneous non-response and misreporting, Surveys only capture 20% of it, vs. 70% of labor income. This understates inequality estimates, which become insensitive to the capital share and its distribution. I formalize this system based on accounting identities. I then compute marginal effects and contributions to changes in fractile shares. The 3rd chapter, presents a method to adjust surveys. These generally fail to capturethe top of the income distribution. It has several advantages over previous ones: it is consistent with standard survey calibration methods; it has explicit probabilistic foundations and preserves the continuity of density functions; it provides an option to overcome the limitations of bounded survey-supports; and it preserves the microdata structure of the survey
APA, Harvard, Vancouver, ISO, and other styles
45

Brard, Caroline. "Approche Bayésienne de la survie dans les essais cliniques pour les cancers rares." Thesis, Université Paris-Saclay (ComUE), 2018. http://www.theses.fr/2018SACLS474/document.

Full text
Abstract:
L'approche Bayésienne permet d’enrichir l'information apportée par l'essai clinique, en intégrant des informations externes à l'essai. De plus, elle permet d’exprimer les résultats directement en termes de probabilité d’un certain effet du traitement, plus informative et interprétable qu’une p-valeur et un intervalle de confiance. Par ailleurs, la réduction fréquente d’une analyse à une interprétation binaire des résultats (significatif ou non) est particulièrement dommageable dans les maladies rares. L’objectif de mon travail était d'explorer la faisabilité, les contraintes et l'apport de l'approche Bayésienne dans les essais cliniques portant sur des cancers rares lorsque le critère principal est censuré. Tout d’abord, une revue de la littérature a confirmé la faible implémentation actuelle des méthodes Bayésiennes dans l'analyse des essais cliniques avec critère de survie.Le second axe de ce travail a porté sur le développement d’un essai Bayésien avec critère de survie, intégrant des données historiques, dans le cadre d’un essai réel portant sur une pathologie rare (ostéosarcome). Le prior intégrait des données historiques individuelles sur le bras contrôle et des données agrégées sur l’effet relatif du traitement. Une large étude de simulations a permis d’évaluer les caractéristiques opératoires du design proposé, de calibrer le modèle, tout en explorant la problématique de la commensurabilité entre les données historiques et actuelles. Enfin, la ré-analyse de trois essais cliniques publiés a permis d’illustrer l'apport de l'approche Bayésienne dans l'expression des résultats et la manière dont cette approche permet d’enrichir l’analyse fréquentiste d’un essai
Bayesian approach augments the information provided by the trial itself by incorporating external information into the trial analysis. In addition, this approach allows the results to be expressed in terms of probability of some treatment effect, which is more informative and interpretable than a p-value and a confidence interval. In addition, the frequent reduction of an analysis to a binary interpretation of the results (significant versus non-significant) is particularly harmful in rare diseases.In this context, the objective of my work was to explore the feasibility, constraints and contribution of the Bayesian approach in clinical trials in rare cancers with a primary censored endpoint. A review of the literature confirmed that the implementation of Bayesian methods is still limited in the analysis of clinical trials with a censored endpoint.In the second part of our work, we developed a Bayesian design, integrating historical data in the setting of a real clinical trial with a survival endpoint in a rare disease (osteosarcoma). The prior incorporated individual historical data on the control arm and aggregate historical data on the relative treatment effect. Through a large simulation study, we evaluated the operating characteristics of the proposed design and calibrated the model while exploring the issue of commensurability between historical and current data. Finally, the re-analysis of three clinical trials allowed us to illustrate the contribution of Bayesian approach to the expression of the results, and how this approach enriches the frequentist analysis of a trial
APA, Harvard, Vancouver, ISO, and other styles
46

Kurdy, Micheline. "Outils numériques et Archéologie du bâti - Acquisition, gestion et représentation de données 3D : Deux cas d’étude : Le site de Saint-Syméon (Syrie) Et L’abbaye de Saint-Michel-de-Cuxa (France)." Thesis, Aix-Marseille, 2013. http://www.theses.fr/2013AIXM3040.

Full text
Abstract:
Les études sur le patrimoine architectural bénéficient aujourd'hui de nombreuses méthodes numériques qui ouvrent de nouvelles perspectives pour la conservation, l'analyse et le partage des connaissances, en particulier sur les sites complexes. Ces nouveaux outils se banalisent aujourd'hui, mais à quel point sont-ils désormais nécessaires voire indispensables pour les études architecturales et archéologiques ? Comment s'inscrivent-ils dans les différentes étapes du travail ?Nous aborderons ces questions principalement à propos de deux terrains d'expérimentation : le site de Saint-Syméon-le-stylite en Syrie et l'abbaye de Saint-Michel de Cuxa en France. La méthodologie mise en œuvre pour l'analyse et la restitution des élévations se fonde sur les outils et techniques numériques d'acquisition et de gestion d'information tridimensionnelle et sur leur mise en relation avec les problématiques archéologiques pour construire un dialogue entre ces deux domaines. A partir de cette réflexion, nous avons élaboré un protocole de travail à l'échelle de l'étude monographique d'un édifice spécifique du site de Saint-Syméon « La Résidence ».Cette recherche s'appuie sur une combinaison de plusieurs outils numériques appliquées à l'édifice en vue de son analyse et en les utilisant comme instrument privilégié d'aide à la réflexion archéologique, et non comme une fin en soi.La principale contribution de cette thèse porte sur la méthodologie de l'intégration de ces outils à l'approche archéologique. Cette approche met en valeur plusieurs axes, le dynamisme et l'interactivité du travail, le contexte interdisciplinaire et collectif, l'objectif de la documentation et la diffusion
Nowadays, the heritage architectural studies benefit of the contributions of diverse digital methods and open new perspectives for the conservation, the analyses and the knowledge sharing especially on complex sites. Those new tools and techniques have become common and very useful presently, but how much they become common or indispensable for architectural and archeological studies? How do they fit into the different phases of the research work?We will discuss these principal questions by working mainly on two experimented sites, the site of Saint-Simeon the stylite in Syria and the abbey of Saint-Michel de Cuxa in France. The methodology used for the analysis and the elevation restoration is based on the digital tools and acquisition techniques and of three-dimensional information management and also on their setting relation with archaeological issues to build a dialogue between these two domains. Based on this reflection, we have developed a work protocol in scale of monographic study of a specific building in Saint Simeon site “the Residence”. This research is based on a combination of digital tools applied on this building for its analysis and by using them as a privileged instrument to support archaeological reflection, not an end in itself.The main contribution of this thesis focuses on the methodology and the ethics of the use of 3D digital service in archaeological approach, from the filed acquisition till the restitution representations. This approach highlights several axes, dynamism and interactivity of the work, the multidisciplinary and the collectivity context, the objective of documentation and diffusion
APA, Harvard, Vancouver, ISO, and other styles
47

Pister, Alexis. "Visual Analytics for Historical Social Networks : Traceability, Exploration, and Analysis." Electronic Thesis or Diss., université Paris-Saclay, 2022. http://www.theses.fr/2022UPASG081.

Full text
Abstract:
Cette thèse vise à identifier théoriquement et concrètement comment l'analyse visuelle peut aider les historiens dans leur processus d'analyse de réseaux sociaux. L'analyse de réseaux sociaux est une méthode utilisée en histoire sociale qui vise à étudier les relations sociales au sein de groupes d'acteurs (familles, institutions, entreprises, etc.) en reconstruisant les relations du passé à partir de documents historiques, tels que des actes de mariages, des actes de naissances, ou des recensements. L'utilisation de méthodes visuelles et analytiques leurs permet d'explorer la structure sociale formant ces groupes et de relier des mesures structurelles à des hypothèses sociologiques et des comportements individuels. Cependant, l'inspection, l'encodage et la modélisation des sources menant à un réseau finalisé donnent souvent lieu à des erreurs, des distorsions et des problèmes de traçabilité, et les systèmes de visualisation actuels présentent souvent des défauts d'utilisabilité et d'interprétabilité. En conséquence, les historiens ne sont pas toujours en mesure de faire des conclusions approfondies à partir de ces systèmes : beaucoup d'études se limitent à une description qualitative d'images de réseaux, surlignant la présence de motifs d'intérêts (cliques, îlots, ponts, etc.). Le but de cette thèse est donc de proposer des outils d'analyse visuelle adaptés aux historiens afin de leur permettre une meilleur intégration de leur processus global et des capacités d'analyse guidées. En collaboration avec des historiens, je formalise le processus d'une analyse de réseau historique, de l'acquisition des sources jusqu'à l'analyse finale, en posant comme critère que les outils utilisés dans ce processus devraient satisfaire des principes de traçabilité, de simplicité et de réalité documentaire (i.e., que les données présentées doivent être conformes aux sources) pour faciliter les va-et-vient entre les différentes étapes et la prise en main par l'utilisateur et ne pas distordre le contenu des sources. Pour satisfaire ces propriétés, je propose de modéliser les sources historiques en réseaux sociaux bipartis multivariés dynamiques avec rôles. Ce modèle intègre explicitement les documents historiques sous forme de nœuds, ce qui permet aux utilisateurs d'encoder, de corriger et d'analyser leurs données avec les mêmes outils. Je propose ensuite deux interfaces d'analyse visuelle permettant, avec une bonne utilisabilité et interprétabilité, de manipuler, d'explorer et d'analyser ce modèle de données. Le premier système ComBiNet offre une exploration visuelle de l'ensemble des dimensions du réseau à l'aide de vues coordonnées et d'un système de requêtes visuelles permettant d'isoler des individus ou des groupes et de comparer leurs structures topologiques et leurs propriétés. L'outil permet également de détecter les motifs inhabituels et ainsi de déceler les éventuelles erreurs dans les annotations. Le second système, PK-Clustering, est une proposition d'amélioration de l'utilisabilité et de l'efficacité des mécanismes de clustering dans les systèmes de visualisation de réseaux sociaux. L'interface permet de créer des regroupements pertinents à partir des connaissances a priori de l'utilisateur, du consensus algorithmique et de l'exploration du réseau dans un cadre d'initiative mixte. Les deux systèmes ont été conçus à partir des besoins et retours continus d'historiens, et visent à augmenter la traçabilité, la simplicité, et la réalité documentaire des sources dans le processus d'analyse de réseaux historiques. Je conclus sur la nécessité d'une meilleure intégration des systèmes d'analyse visuelle dans le processus de recherche des historiens. Cette intégration nécessite des outils plaçant les utilisateurs au centre du processus avec un accent sur la flexibilité et l'utilisabilité, limitant ainsi l'introduction de biais et les barrières d'utilisation des méthodes quantitatives, qui subsistent en histoire
This thesis aims at identifying theoretically and concretely how visual analytics can support historians in their social network analysis process. Historical social network analysis is a method to study social relationships between groups of actors (families, institutions, companies, etc.) through a reconstruction of relationships of the past from historical documents, such as marriage acts, migration forms, birth certificates, and censuses. The use of visualization and analytical methods lets social historians explore and describe the social structure shaping those groups while explaining sociological phenomena and individual behaviors through computed network measures. However, the inspection and encoding of the sources leading to a finalized network is intricate and often results in inconsistencies, errors, distortions, and traceability problems, and current visualization tools typically have usability and interpretability issues. For these reasons, social historians are not always able to make thorough historical conclusions: many studies consist of qualitative descriptions of network drawings highlighting the presence of motifs such as cliques, components, bridges, etc. The goal of this thesis is therefore to propose visual analytics tools integrated into the global social historians' workflow, with guided and easy-to-use analysis capabilities. From collaborations with historians, I formalize the workflow of historical network analysis starting at the acquisition of sources to the final visual analysis. By highlighting recurring pitfalls, I point out that tools supporting this process should satisfy traceability, simplicity, and document reality principles to ease bask and forth between the different steps, provide tools easy to manipulate, and not distort the content of sources with modifications and simplifications. To satisfy those properties, I propose to model historical sources into bipartite multivariate dynamic social networks with roles as they provide a good tradeoff of simplicity and expressiveness while modeling explicitly the documents, hence letting users encode, correct, and analyze their data with the same abstraction and tools. I then propose two interactive visual interfaces to manipulate, explore, and analyze this data model, with a focus on usability and interpretability. The first system ComBiNet allows an interactive exploration leveraging the structure, time, localization, and attributes of the data model with the help of coordinated views and a visual query system allowing users to isolate interesting groups and individuals, and compare their position, structures, and properties. It also lets them highlight erroneous and inconsistent annotations directly in the interface. The second system, PK-Clustering, is a concrete proposition to enhance the usability and effectiveness of clustering mechanisms in social network visual analytics systems. It consists in a mixed-initiative clustering interface that let social scientists create meaningful clusters with the help of their prior knowledge, algorithmic consensus, and interactive exploration of the network. Both systems have been designed with continuous feedback from social historians, and aim to increase the traceability, simplicity, and document reality of visual analytics supported historical social network research. I conclude with discussions on the potential merging of both tools, and more globally on research directions towards better integration of visual analytics systems on the whole workflow of social historians. Systems with a focus on those properties---traceability, simplicity, and document reality---can limit the introduction of bias while lowering the requirements for the use of quantitative methods for historians and social scientists which has always been a controversial discussion among practitioners
APA, Harvard, Vancouver, ISO, and other styles
48

Beslagic, Sarah. "Histoire des interactions entre les sociétés humaines et le milieu aquatique durant l'Anthropocène : évolutions des peuplements piscicoles dans le bassin de la Seine." Thesis, Paris 1, 2013. http://www.theses.fr/2013PA010656/document.

Full text
Abstract:
Le bassin hydrographique de la Seine figure parmi les bassins français les plus anthropisés. Les communautés piscicoles qui le peuplent sont potentiellement marquées par les pressions humaines qui s'exercent sur le milieu aquatique, et dont l'ampleur depuis l'Époque industrielle a été grandissante. L'objectif de ce travail était d'identifier les facteurs à l'origine des modifications de la répartition des peuplements de poissons sur le temps long. Afin de mettre en évidence les possibles changements intervenus durant les deux derniers siècles, ce travail a été mené en croisant deux types d'approches, l'une historique et l'autre écologique. Cette étude, basée sur des données d'observations de poissons dans le bassin de la Seine depuis le début du XIXe siècle, montre une importante modification de la faune piscicole (i.e. introductions et disparitions d'espèces) à l'échelle du bassin. Par ailleurs. L’analyse comparative des données historiques, pour lesquelles existent des mentions d'abondances, et des données écologiques actuelles montre que les aires de répartition de certaines espèces ont été très largement modifiées. Sur différents secteurs du bassin, les résultats témoignent d'évolutions parfois importantes de la composition des peuplements en lien avec différents types de pressions anthropiques exercées sur le milieu à des échelles d'espace et de temps variées. Ce travail confirme l'intérêt d'une approche interdisciplinaire dans la compréhension de l'histoire des écosystèmes. De futures recherches sont néanmoins nécessaires afin de cerner l'importance de facteurs plus locaux sur la répartition des espèces piscicoles
In France, the Seine River basin has been harshly impacted by anthropogenic pressures since the Industrial revolution. Fish community is expected to be disturbed by these human pressures on aquatic environment. This thesis aimed to highlight the factors involved in the changes of fish species spatial distribution over the last two centuries using both historical and ecological approaches. The analysis of historical data of fish distributions on the Seine River basin showed some important modifications of fish communities (i.e. species introductions and extinctions) at the catchment scale, since the beginning of the XIXth century. The comparative study based on historical abundances and actual data showed that certain species have changed their distribution area. Besides, substantial evolutions in fish assemblages occurred in certain rivers, probably in relation to anthropogenic pressures acting at different spatial and temporal scales. This study confirms the interest of an interdisciplinary approach to improve knowledge of ecosystems' history. Nevertheless, future researches are still needed to better understand the effects of local factors on fish distribution area
APA, Harvard, Vancouver, ISO, and other styles
49

Yang, Xiucheng. "3D modeling of built heritage : from geometric models to HBIM." Thesis, Strasbourg, 2018. http://www.theses.fr/2018STRAD054/document.

Full text
Abstract:
La maquette numérique de bâtiments historiques (Heritage-BIM) est devenue un enjeu majeur dans la modélisation. Le modèle HBIM ainsi obtenu comprend une description paramétrique et sémantique des éléments constitutifs du patrimoine. La thèse présente des méthodes de constructions HBIM à partir de la documentation historique, de nuages de points, de maillage de surfaces et de géométrie solide. Un concept de mesh-to-HBIM est proposé à l'aide de la programmation visuelle, qui permet de transformer les « familles » paramétriques et les structures géométriques en modèles paramétriques et sémantiques HBIM. La modélisation paramétrique HBIM consiste à créer manuellement des Familles Revit paramétriques et une reconstruction de bâtiment semi-automatisée par l'application de scripts Dynamo. Le processus de modélisation sémantique HBIM transforme directement des géométries segmentées de maillages ou de solides vers l'environnement BIM. Les éléments segmentés et individualisés peuvent être stockés et gérés dans cet environnement avec des compléments d'informations d'association entre éléments
Heritage Building Information Modelling (HBIM) is a major issue in heritage documentation and conservation. The obtained HBIM model provides a parametric and semantic description of the heritage elements. This thesis presents methods for the generation of HBIM models from point clouds (obtained by photogrammetry or laser scanning), surface mesh and solid geometry. A concept of solid/mesh-to-HBIM is proposed using Autodesk Dynamo visual programming, which transfers the parametric “Family” and geometric structures to parametric and semantic HBIM models. The parametric HBIM modelling process involves conventional manual parametric “Family” creation and semi-automated building reconstruction by Dynamo. The semantic HBIM modelling process directly transfers the segmented solid geometry and closed mesh-to-BIM environment. The segmented elements can be stored and managed in the BIM environment with attached attributes information and relationships established among the elements
APA, Harvard, Vancouver, ISO, and other styles
50

Rolin, Raphaël. "Contribution à une démarche numérique intégrée pour la préservation des patrimoines bâtis." Thesis, Compiègne, 2018. http://www.theses.fr/2018COMP2450/document.

Full text
Abstract:
Au travers de l’ensemble de ces travaux, l’objectif principal consiste à valider la pertinence de la construction et de l’utilisation de modèles 3D géométriques ou paramétriques orientés BIM/hBIM pour des analyses numériques. Il s’agit notamment d’études structurales dans le cas de bâtiments historiques ainsi que la planification potentielle de travaux de restauration, rénovation énergétique et réhabilitation. Des travaux d’exploitation complémentaires des données et des nuages de points, pour la détection, la segmentation et l’extraction d’entités géométriques ont également été intégrés dans les travaux et la méthodologie proposée. Le processus de traitement des données, modélisation géométrique ou paramétrique et leur exploitation, proposé dans ces travaux, contribue à améliorer et mieux comprendre les contraintes et enjeux des différentes configurations et conditions liées aux cas d’études et aux contraintes spécifiques propres aux types de constructions. Les contributions proposées pour les différentes méthodes de modélisation géométriques et paramétriques à partir des nuages de points, sont abordées par la construction de modèles géométriques orientés BIM ou hBIM. De même, les processus de détection d’éléments surfaciques et d’extraction de données à partir de nuages de points mis en place sont présentés. La mise en application de ces méthodes de modélisation est systématiquement illustrée par différents cas d’étude, dont l’ensemble des travaux relatifs ont été effectués dans le cadre de cette thèse. Le but est dès lors de démontrer l’intérêt et la pertinence de ces méthodes numériques en fonction du contexte, des besoins et des études envisagées, par exemple avec la flèche de la cathédrale de Senlis (Oise) et le site de l’Hermitage (Oise). Des analyses numériques de type éléments finis permettent ensuite de valider la pertinence de telles démarches
Throughout this work, the main objective is to validate the relevance of construction and use of geometric or parametric 3D models BIM or hBlM-oriented for numerical analyzes. These include structural studies in the case of historic buildings, as well as planning for restoration work, energy renovation and rehabilitation. Complementary data mining and use of point clouds for the detection, segmentation and extraction of geometric features have also been integrated into the work and proposed methodology. The process of data processing, geometric or parametric modeling and their exploitation, proposed in this work, contributes to improve and understand better the constraints and stakes of the different configurations and conditions related to the case studies and the specific constraints specific to the types of constructions. The contributions proposed for the different geometric and parametric modeling methods from point clouds are addressed by the construction of geometric models BIM or hBlM-oriented. Similarly, the process of surface detection, extraction of data and elements from point clouds are presented. The application of these modeling methods is systematically illustrated by different case studies, all of whose relative work has been carried out within the framework of this thesis. The goal is therefore to demonstrate the interest and relevance of these numerical methods according to the context, needs and studies envisaged, for example with the spire of the Senlis cathedral (Oise) and the Hermitage site (Oise). Numerical analyzes with finite element method are used to validate the relevance of these approaches
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography