Dissertationen zum Thema „Outils de modélisation épidémiologique“

Um die anderen Arten von Veröffentlichungen zu diesem Thema anzuzeigen, folgen Sie diesem Link: Outils de modélisation épidémiologique.

Geben Sie eine Quelle nach APA, MLA, Chicago, Harvard und anderen Zitierweisen an

Wählen Sie eine Art der Quelle aus:

Machen Sie sich mit Top-50 Dissertationen für die Forschung zum Thema "Outils de modélisation épidémiologique" bekannt.

Neben jedem Werk im Literaturverzeichnis ist die Option "Zur Bibliographie hinzufügen" verfügbar. Nutzen Sie sie, wird Ihre bibliographische Angabe des gewählten Werkes nach der nötigen Zitierweise (APA, MLA, Harvard, Chicago, Vancouver usw.) automatisch gestaltet.

Sie können auch den vollen Text der wissenschaftlichen Publikation im PDF-Format herunterladen und eine Online-Annotation der Arbeit lesen, wenn die relevanten Parameter in den Metadaten verfügbar sind.

Sehen Sie die Dissertationen für verschiedene Spezialgebieten durch und erstellen Sie Ihre Bibliographie auf korrekte Weise.

1

Hessami, Mohammad Hessam. „Modélisation multi-échelle et hybride des maladies contagieuses : vers le développement de nouveaux outils de simulation pour contrôler les épidémies“. Thesis, Université Grenoble Alpes (ComUE), 2016. http://www.theses.fr/2016GREAS036/document.

Der volle Inhalt der Quelle
Annotation:
Les études théoriques en épidémiologie utilisent principalement des équations différentielles pour étudier (voire tenter de prévoir) les processus infectieux liés aux maladies contagieuses, souvent sous des hypothèses peu réalistes (ex: des populations spatialement homogènes). Cependant ces modèles ne sont pas bien adaptés pour étudier les processus épidémiologiques à différentes échelles et ils ne sont pas efficaces pour prédire correctement les épidémies. De tels modèles devraient notamment être liés à la structure sociale et spatiale des populations. Dans cette thèse, nous proposons un ensemble de nouveaux modèles dans lesquels différents niveaux de spatialité (par exemple la structure locale de la population, en particulier la dynamique de groupe, la distribution spatiale des individus dans l'environnement, le rôle des personnes résistantes, etc.) sont pris en compte pour expliquer et prédire la façon dont des maladies transmissibles se développent et se répandent à différentes échelles, même à l'échelle de grandes populations. La manière dont les modèles que nous avons développé sont paramétrés leur permet en outre d'être reliés entre eux pour bien décrire en même temps le processus épidémiologique à grande échelle (population d'une grande ville, pays ...) mais avec précision dans des zones de surface limitée (immeubles de bureaux, des écoles). Nous sommes d'abord parvenus à inclure la notion de groupes dans des systèmes d'équations différentielles de modèles SIR (susceptibles, infectés, résistants) par une réécriture des dynamiques de population s'inspirant des réactions enzymatiques avec inhibition non compétitive : les groupes (une forme de complexe) se forment avec des compositions différentes en individus S, I et R, et les individus R se comportent ici comme des inhibiteurs non compétitifs. Nous avons ensuite couplé de tels modèles SIR avec la dynamique globale des groupes simulée par des algorithmes stochastiques dans un espace homogène, ou avec les dynamiques de groupe émergentes obtenues dans des systèmes multi-agents. Comme nos modèles fournissent de l'information bien détaillée à différentes échelles (c'est-à-dire une résolution microscopique en temps, en espace et en population), nous pouvons proposer une analyse de criticité des processus épidémiologiques. Nous pensons en effet que les maladies dans un environnement social et spatial donné présentent des signatures caractéristiques et que de telles mesures pourraient permettre l'identification des facteurs qui modifient leur dynamique.Nous visons ainsi à extraire l'essence des systèmes épidémiologiques réels en utilisant différents modèles mathématique et numériques. Comme nos modèles peuvent prendre en compte les comportements individuels et les dynamiques de population, ils sont en mesure d'utiliser des informations provenant du BigData, collectée par les technologies des réseaux mobiles et sociaux. Un objectif à long terme de ce travail est d'utiliser de tels modèles comme de nouveaux outils pour réduire les épidémies en guidant les rythmes et organisation humaines, par exemple en proposant de nouvelles architectures et en changeant les comportements pour limiter les propagations épidémiques
Theoretical studies in epidemiology mainly use differential equations, often under unrealistic assumptions (e.g. spatially homogeneous populations), to study the development and spreading of contagious diseases. Such models are not, however, well adapted understanding epidemiological processes at different scales, nor are they efficient for correctly predicting epidemics. Yet, such models should be closely related to the social and spatial structure of populations. In the present thesis, we propose a series of new models in which different levels of spatiality (e.g. local structure of population, in particular group dynamics, spatial distribution of individuals in the environment, role of resistant people, etc) are taken into account, to explain and predict how communicable diseases develop and spread at different scales, even at the scale of large populations. Furthermore, the manner in which our models are parametrised allow them to be connected together so as to describe the epidemiological process at a large scale (population of a big town, country ...) and with accuracy in limited areas (office buildings, schools) at the same time.We first succeed in including the notion of groups in SIR (Susceptible, Infected, Recovered) differential equation systems by a rewriting of the SIR dynamics in the form of an enzymatic reaction in which group-complexes of different composition in S, I and R individuals form and where R people behave as non-competitive inhibitors. Then, global group dynamics simulated by stochastic algorithms in a homogeneous space, as well emerging ones obtained in multi-agent systems, are coupled to such SIR epidemic models. As our group-based models provide fine-grain information (i.e. microscopical resolution of time, space and population) we propose an analysis of criticality of epidemiological processes. We think that diseases in a given social and spatial environment present characteristic signatures and that such measurements could allow the identification of the factors that modify their dynamics.We aim here to extract the essence of real epidemiological systems by using various methods based on different computer-oriented approaches. As our models can take into account individual behaviours and group dynamics, they are able to use big-data information yielded from smart-phone technologies and social networks. As a long term objective derived from the present work, one can expect good predictions in the development of epidemics, but also a tool to reduce epidemics by guiding new environmental architectures and by changing human health-related behaviours
APA, Harvard, Vancouver, ISO und andere Zitierweisen
2

Guifo, Fodjo A. Yvan. „Séparation des préoccupations dans les modèles compartimentaux étendus“. Electronic Thesis or Diss., Sorbonne université, 2023. http://www.theses.fr/2023SORUS262.

Der volle Inhalt der Quelle
Annotation:
La modélisation mathématique et la simulation informatique ont très souvent contribué à améliorer notre degré de compréhension, de prédiction et de prise de décision face aux épidémies. Cependant, un problème très souvent rencontré lors de l’élaboration et la mise en œuvre des modèles épidémiologiques est le mélange des différents aspects du modèle. En effet, les modèles épidémiologiques deviennent de plus en plus complexes au fur et à mesure que de nouvelles préoccupations sont prises en compte (âge, sexe, hétérogénéité spatiale, politiques de confinement ou de vaccination, etc.). Ces aspects, qui sont généralement entrelacés, rendent les modèles difficiles à étendre, à modifier ou à réutiliser. En modélisation mathématique appliquée à épidémiologie deux principales approches sont considérées. La première, celle des "modèles compartimentaux" s’est révélée robuste et apporte d’assez bons résultats pour de nombreuses maladies. Cependant elle prend difficilement en compte certaines sources d’hétérogénéités. La seconde approche, celle basée sur les "réseaux de contacts", s’est montrée intuitive à représenter les contacts entre individus et apporte de très bons résultats concernant la prédiction des épidémies. Toutefois, cette approche nécessite plus d’efforts lors de la mise en œuvre. Une solution a été proposée pour y faire face : il s’agit de Kendrick. C'est un outil et une démarche de modélisation et de simulation ayant montré des résultats prometteurs pour séparer les préoccupations épidémiologiques, en les définissant comme des automates stochastiques (chaîne de Markov à temps continu), qu’il est ensuite possible de combiner à partir d'un opérateur de somme tensorielle associatif et pseudo commutatif. Cependant, une limite significative à cette démarche est son application restreinte aux modèles compartimentaux. Compte tenu des particularités et des insuffisances de chaque approche, dans ces travaux de recherche, nous proposons une approche combinée entre modèles compartimentaux et modèles de réseaux de contacts. Il s'agit de généraliser la démarche Kendrick pour prendre en compte certains aspects des réseaux de contacts afin améliorer la qualité prédictive des modèles présentant une hétérogénéité significative dans la structure des contacts, tout en conservant la simplicité des modèles compartimentaux. Pour y parvenir, cette extension des modèles compartimentaux est rendu possible à partir de l'application du formalisme de la force d'infection de Bansal et al (2007) et du patron comportemental Template Method Design Pattern. Il en résulte une démarche facile à définir, à analyser et à simuler. Nous avons validé cette démarche sur différentes techniques pour généraliser les modèles compartimentaux. Les résultats de simulation ont montré que notre démarche parvient à capturer les aspects des modèles de réseaux de contacts au sein du cadre compartimental tout en améliorant la qualité de prédiction de l'outil Kendrick et ne s'éloignent pas d'une approche typique de simulation sur un modèle de réseaux de contacts
Mathematical modeling and computer simulation have very often contributed to improving our understanding, prediction, and decision making in the face of epidemics. However, a problem that is often encountered in the development and implementation of epidemiological models is the mixing of different aspects of the model. Indeed, epidemiological models become more and more complex as new concerns are taken into account (age, gender, spatial heterogeneity, containment or vaccination policies, etc.). These aspects, which are usually intertwined, make models difficult to extend, modify or reuse. In mathematical modeling applied to epidemiology, two main approaches are considered. The first one, the "compartmental models", has proven to be robust and provides fairly good results for many diseases. However, it does not take into account some sources of heterogeneity. The second approach, based on "contact networks", has proven to be intuitive to represent contacts between individuals and brings very good results concerning the prediction of epidemics. However, this approach requires more effort during the implementation. A solution to this problem has been proposed: Kendrick. It is a modeling and simulation tool and approach that has shown promising results in separating epidemiological concerns, by defining them as stochastic automata (continuous time markov chain), which can then be combined using an associative and pseudo commutative tensor sum operator. However, a significant limitation of this approach is its restricted application to compartmental models. Taking into account the particularities and shortcomings of each approach, in this research work, we propose a combined approach between compartmental models and contact network models. The aim is to generalize the Kendrick approach to take into account certain aspects of contact networks in order to improve the predictive quality of models with significant heterogeneity in the structure of the contacts, while maintaining the simplicity of compartmental models. To achieve this, this extension of compartmental models is made possible by applying the infection force formalism of Bansal et al (2007) and the behavioral Template Method Design Pattern. The result is an approach that is easy to define, analyze and simulate. We validated this approach on different techniques to generalize compartmental models. Simulation results showed that our approach succeeds in capturing the aspects of contact network models within the compartmental framework while improving the prediction quality of the Kendrick tool and does not deviate from a typical simulation approach on a contact network model
APA, Harvard, Vancouver, ISO und andere Zitierweisen
3

Ben, Hadj Yahia Mohamed-Béchir. „Données et outils pour l'optimisation de l’impact de la vaccination prophylactique contre les papillomavirus humains en France“. Thesis, Lille 2, 2015. http://www.theses.fr/2015LIL2S041/document.

Der volle Inhalt der Quelle
Annotation:
Introduction : Depuis 2007, la vaccination contre les infections à papillomavirus humains (HPV) est recommandée en complément du dépistage du cancer du col utérin (CCU). Cependant, au vu de la faible couverture vaccinale en France, l’impact épidémiologique de la vaccination est discuté, ainsi que le choix de la population cible et les moyens déployés pour son adhésion à la recommandation. Cette thèse propose des données et des outils originaux pour l’évaluation et l’optimisation de l’impact de la vaccination HPV en France. Pour les aspects quantitatifs, une modélisation de la transmission de l’infection à HPV appuyée sur des données détaillées décrivant les partenariats sexuels dans la population générale est nécessaire. L’exploration du lien potentiel entre la participation au dépistage du CCU des femmes précaires et leur choix d’administrer le vaccin HPV à leurs filles, l’appréciation de l’acceptabilité de la vaccination à partir des réseaux sociaux, et l’évaluation médico-économique de la pertinence de l’extension de la vaccination aux hommes, sont déterminants pour parfaire le ciblage des populations à atteindre.Méthodes : Nous avons développé une plateforme de modélisation destinée à l'étude des contacts sexuels et de la dynamique de transmission des infections par les HPV à partir des données de l’enquête Contexte de la Sexualité en France. Grâce à des modèles de mélange de lois, nous avons identifié des classes latentes d’activité sexuelle, permettant de définir des profils à risque d’infections sexuellement transmissibles. Ensuite, nous avons interrogé les femmes consultant au sein du Centre de Prévention et d’Éducation pour la Santé de Lille, ayant au moins une fille éligible à la vaccination HPV, sur leurs attitudes vis-à-vis du dépistage du CCU et de la vaccination. Puis, nous avons analysé les opinions exprimées par les internautes sur le forum en ligne d’un site d’information en santé, concernant la sécurité, l’efficacité et la perception du vaccin HPV. Enfin, nous avons réalisé une revue systématique des études médico-économiques relatives à l’extension de la vaccination HPV aux hommes.Résultats : Les simulations sur la plateforme de modélisation ont permis de reproduire les données de prévalence des infections à HPV mais les résultats restent sensibles aux hypothèses sur les comportements sexuels qui présentent des incohérences entre les hommes et les femmes. Cinq classes latentes d’activité sexuelle ont été identifiées pour les hommes ainsi que pour les femmes. Le cluster correspondant au niveau d’activité sexuelle le plus élevé représente 3,3% chez les femmes et 4,8% chez les hommes. Par ailleurs, le statut vaccinal des filles ne diffère pas selon le profil de dépistage de leur mère. L’argument majoritairement rapporté par les mères pour justifier la non-vaccination de leurs filles concerne le manque d’information, surtout parmi celles qui ne se dépistent pas. De plus, les opinions négatives, exprimées sur le forum de discussion en ligne, sont passées de 28,6 % des avis exprimés en 2006 à 42,2 % en 2013. Les arguments avancés par les « anti-vaccinaux » concernent la sécurité du vaccin et la perception de la vaccination. Enfin, les modèles médico-économiques montrent que l’extension de la vaccination aux hommes est très rarement une stratégie coût-efficace. Néanmoins, la vaccination ciblée des homosexuels masculins semble être la stratégie optimale du point de vue éthique et médico-économique.Discussion : La plateforme de modélisation des contacts sexuels constitue le socle de l’évaluation de l’impact de la vaccination HPV. La surveillance des forums de discussion en ligne permet le monitoring de l’acceptabilité de la vaccination et le ciblage des actions d’information. L’optimisation de couverture vaccinale nécessite la mise en place d’un programme organisé de vaccination des jeunes filles. À défaut d’une implémentation en milieu scolaire, les centres de prévention offrent une alternative intéressante
Introduction: Since 2007, prophylactic vaccination against human papillomavirus (HPV) has been recommended in addition to cervical screening in French women. However, given the low vaccine coverage in France, the epidemiological impact of the vaccination is debated, as well as the choice of the target population and the means to ensure compliance with the recommendation. This doctoral thesis provides original data and tools for the evaluation and the improvement of the impact of HPV vaccination in France. For quantitative aspects, modelling HPV transmission based on the best data describing sexual partnerships in the general population is essential. The investigation of potential links between participation to cervical screening of deprived women and their choice of vaccinating their daughters, the appraisal of vaccine acceptability through social media and the cost-effectiveness evaluation of the relevance of extending the HPV vaccination program to include males are key elements to improve the focus on targeted populations.Methods: We developed a modelling platform to study the dynamics of HPV transmission, using data from Social Context of Sexuality, the latest national French sexual behavior study. Using finite mixture models, we identified latent classes of sexual activity to define profiles of partner acquisition with age, likely to have different risks of sexually transmitted infections. Then, we asked women attending the Centre for Preventive Medicine and Health Education of Lille, who had at least a daughter eligible for HPV vaccination, about their attitudes towards cervical screening and HPV vaccination. Next, we explored sentiments about HPV vaccine safety, efficacy and perceptions, spontaneously expressed by web users on the online discussion forum of a French-speaking health information website. Finally, we performed a systematic review of the cost-effectiveness studies about extending HPV vaccination to include males.Results: Simulations from the modelling platform reproduced HPV infection prevalence observed in France. Nevertheless, results were sensitive to assumptions about sexual behavior, with discrepancies between men and women. Five latent classes of sexual activity were identified in men and in women. The cluster describing the highest level of sexual behavior represents 3.3% in women and 4.8% in men. Besides, daughters’ vaccination profile did not differ with their mothers’ profile of participation to cervical screening. The main reason for not vaccinating their daughters reported by mothers was lack of information, especially for those non-compliant with cervical screening recommendations. Moreover, negative sentiments, reported by the health website forum, evolved from 28.6% of total opinions in 2006 to 42.2% in 2013. The arguments expressed by “anti-vaccine” postings involved most often vaccine safety and negative vaccine perceptions. Finally, cost-effectiveness analyses show that extending the HPV vaccination program to include males is rarely found to be a cost-effective strategy. Nevertheless, the targeted vaccination of men having sex with men seems to be the best strategy from ethical and cost-effectiveness points of view.Discussion: The modelling platform of sexual contacts represents the basis of the evaluation of HPV vaccination impact. The surveillance of online forums enables the monitoring of vaccine acceptability and hence the targeting of preventive messages. Improving the HPV vaccine coverage requires offering girls and young women an organized vaccination program. In the lack of a school-based vaccination program, Centres for Preventive Medicine and Health Education offer an interesting alternative
APA, Harvard, Vancouver, ISO und andere Zitierweisen
4

Papegay, Yves. „Outils Formels pour la Modélisation en Mécanique“. Phd thesis, Université Nice Sophia Antipolis, 1992. http://tel.archives-ouvertes.fr/tel-00784857.

Der volle Inhalt der Quelle
Annotation:
Les outils présentés dans ce mémoire ont pour but d'améliorer, par l'apport de méthodes et de techniques de calcul formel, les performances et les capacités de calcul des logiciels qui modélisent et le comportement dynamique de systèmes de corps mécaniques reliés entre eux. On s'intéresse à la possibilité d'écrire de manière automatique un ensemble d'équations différentielles régissant la dynamique de tels systèmes à partir de leurs descriptions physiques. Dans le premier chapitre, on décrit soigneusement les objets mécaniques et mathématiques qui interviennent dans l'étude dynamique des systèmes multicorps, et on met en évidence un problème fondamental : la nature de l'ensemble des configurations admissibles des mécanismes à structures bouclées. Le deuxième chapitre est une étude détaillée, sur un exemple, des différentes méthodes de génération des équations du mouvement de systèmes multicorps, dans l'optique de leur implémentation dans un logiciel de calcul symbolique. Il montre l'intérêt des techniques formelles et permet de spécifier les outils qui doivent être créés pour mener à bien cette implémentation. Dans le troisième chapitre, on présente les outils formels qui ont été développés pour aider à construire un générateur automatique des équations de la dynamique de systèmes polyarticulés. On se consacre, dans le quatrième chapitre, à apporter des éléments de solutions au problème de la détermination de la dimension des variétés de configurations de mécanismes à structures bouclées. Plusieurs méthodes faisant appel à des techniques algébriques, probabilistes et géométriques sont exposées, ainsi que leurs implémentations, et leurs expérimentations.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
5

Lutherer, Éric. „Méthodes et outils de modélisation pour la productique“. Lyon, INSA, 1996. http://www.theses.fr/1996ISAL0092.

Der volle Inhalt der Quelle
Annotation:
Cette thèse traite de la problématique de l'intégration de l'entreprise au travers de méthodes de modélisation ainsi que la mise en œuvre effective d'outils d'intégration. Elle a été réalisée dans le cadre d'une convention CIFRE entre l'INSA de Lyon et Hewlett-Packard France pour le développement de la méthode CIMOSA. L'étude a pour cadre général l'évolution et l'adaptabilité des entreprises à leur environnement afin de rester compétitives. Le concept de CIM est devenu la solution-clé pour l'optimisation et l'intégration des fonctions de l'entreprise. Une synthèse comparative des différentes méthodes de modélisation, méthodologies et architectures utilisées dans le domaine de la productique est d'abord présentée. Chaque méthode est évaluée en fonction de différents critères (formalismes, efficacité, couverture du cycle de vie, domaines d'application). Le second volet de l’étude est consacré au projet CIMOSA, développé par un consortium d'universitaires et d'entreprises dans le cadre du programme ESPRIT. Son objectif est de fournir une architecture de référence couvrant toutes les étapes du cycle de développement d'un système manufacturier. Notre contribution s'articule autour d'une clarification des concepts de CIMOSA, d'une étude critique de la méthode illustrée par une étude de cas industriel et d'un ensemble de propositions d'améliorations et d'extensions. Le troisième volet de l'étude s’intéresse au problème de la mise en œuvre d'une méthode de modélisation. Des outils informatiques sont indispensables pour réaliser et exploiter par la suite le modèle d'une entreprise. Après avoir explicité ce que 1' on entend par analyse, validation et exécution de modèles, différentes techniques de base utilisables en productique sont présentées, tel que les notions de structure d'accueil et d'atelier de génie logiciel. Nous montrons comment ces différentes activités de développement peuvent être unifiées pour concourir à la construction d'un système manufacturier. Ce travail débouche sur la spécification d'un Atelier de Génie Productique appliqué à la méthodologie CIMOSA
The subject of this thesis is the integration of the enterprise through modelling methodologies and computer integration tools. This work has been done in collaboration with Hewlett-Packard France and the Insa of Lyon. To keep their competitiveness, the enterprises must be able to adapt to their environment constantly. In this context, the CIM became the key to enterprise functions optimization and integration. We present a comparison of the different modelling methods, methodologies and architectures used in the manufacturing field. Each considered method is evaluated according to criteria like used formalisms, efficiency, life cycle coverage and application domain. The second part of the work is dedicated to the ESPRIT CIMOSA project, develop by a consortium of European universities and enterprises. Its objective is to provide a reference architecture for CIM, applicable at each step of the development of a manufacturing system. Due to its scope and concept’s richness, CIMOSA is a complex methodology. Our contribution splits in a clarification of its concepts, an industrial case study and a set of improvement and extension proposals. The last part of the study concerns the use of a modelling methodology. Computer tools are required to build and exploit enterprise models. The notions of analysis, validation and execution of models are defined, several technologies applicable to CIM like the Computer Aided Engineering Environment are introduced. The integration of several manufacturing system development activities through the use of a CIM Engineering Workbench is shown. An application to CIMOSA is provided
APA, Harvard, Vancouver, ISO und andere Zitierweisen
6

Bédubourg, Gabriel. „Place des outils d'analyse des séries temporelles dans la surveillance épidémiologique pour la détection des épidémies et leur analyse : élaboration de nouveaux outils de détection et d'analyse étiologique des épidémies appliqués à la surveillance épidémiologique“. Thesis, Aix-Marseille, 2018. http://www.theses.fr/2018AIXM0739.

Der volle Inhalt der Quelle
Annotation:
La surveillance épidémiologique est le recueil systématique et continu d’informations sur l’état de santé des populations, leur analyse, leur interprétation et leur diffusion à tous les décideurs ayant besoin d’être informés. Un de ses objectifs est la détection des événements inhabituels, i.e. des épidémies, nécessitant la mise en place rapide de contre-mesures. Les objectifs de ce travail de thèse sont : (i) d’évaluer les principales méthodes statistiques de détection publiées et communément employées dans différents systèmes de surveillance épidémiologique, (ii) de proposer une nouvelle approche reposant sur la combinaison optimale de méthodes de détection statistique des épidémies et (iii) de développer une nouvelle méthode statistique d’analyse étiologique d’une épidémie à partir des données de surveillance épidémiologique collectées en routine par le système.Pour atteindre ces objectifs, nous évaluons les principales méthodes statistiques de la littérature, à partir d’un jeu publié de données simulées. Puis nous proposons une approche originale pour la détection des épidémies sur le principe de la combinaison de méthodes sélectionnées lors de l’étape précédente. Les performances de cette approche sont comparées aux précédentes selon la méthodologie utiliséeà la première étape. Enfin, nous proposons une méthode d’analyse étiologique d’une épidémie à partir des données de surveillance en employant des modèles statistiques adaptés aux séries chronologiques
Public health surveillance is the ongoing, systematic collection, analysis, interpretation, and dissemination of data for use in public health action to reduce morbidity and mortality of health-related events and to improve health. One of its objectives is the detection of unusualevents, i.e. outbreaks, requiring the rapid implementation of countermeasures.The objectives of this work are: (i) to evaluate the main published statistical methods for outbreak detection commonly implemented in different public health surveillance systems, (ii) to propose a new approach based on the optimal combination of statistical methods foroutbreak detection and benchmark it to other methods; and (iii) develop a new statistical method for the etiological analysis of an outbreak from public health surveillance data routinely collected by the system. To achieve these objectives, as a first step, we evaluate the main statistical methods, from a published set of simulated public health surveillance data. Statistical methods have been evaluated for an operational purpose: for all simulated time series, we used the tuning parameters recommended by their authors for each algorithm when available. We propose sensitivity and specificity metrics suitable for these tools. Then we propose an original approach for outbreak detection based on combination of methods selected in the previous step. The performance of this approach is compared to the previous ones according to the methodology implemented in the first step.Finally, we propose a method for the etiological analysis of an outbreak from surveillance data by using statistical models suitable for time series analysis
APA, Harvard, Vancouver, ISO und andere Zitierweisen
7

Perrin, Jean-Baptiste. „Modélisation de la mortalité bovine dans un objectif de surveillance épidémiologique“. Phd thesis, Université Claude Bernard - Lyon I, 2012. http://tel.archives-ouvertes.fr/tel-00830542.

Der volle Inhalt der Quelle
Annotation:
La surveillance syndromique est un concept récent en épidémiologie. Fondée sur le suivi automatisé d'indicateurs de santé non spécifiques, cette nouvelle approche offre des perspectives intéressantes pour la détection de phénomènes pathologiques émergents. Nous nous sommes basés sur les données actuellement collectées en France sur la mortalité bovine pour évaluer la faisabilité et la pertinence d'un système de surveillance syndromique basé sur cet indicateur. Nous avons d'abord modélisé le niveau de référence de la mortalité bovine en France puis proposé des méthodes pour identifier et quantifier d'éventuels excès de mortalité. Nous avons d'abord analysé des données réelles pour estimer rétrospectivement les conséquences sur la mortalité de l'épizootie de fièvre catarrhale ovine qui a touché le cheptel bovin français en 2007 et 2008. Nous avons ensuite proposé une méthode visant à identifier des regroupements d'unités spatiales présentant des augmentations inhabituelles de mortalité, et évalué ses performances pour détecter des foyers d'une maladie infectieuse dont nous avons simulé la propagation dans le cheptel bovin. Sur la base de ces travaux, nous discutons finalement de l'intérêt pour la protection de la santé animale d'un système de surveillance non spécifique basé sur la mortalité, et émettons des propositions pour la mise en place opérationnelle d'un tel système.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
8

Tchoumatchenko, Vassiliy. „Modélisation, architecture et outils de synthèse pour additionneurs rapides“. Grenoble INPG, 1998. http://www.theses.fr/1998INPG0173.

Der volle Inhalt der Quelle
Annotation:
Le besoin de d'approches efficaces et surtout rapides en conception se fait pressant. C'est un lieu commun dans les motivations de these que de comparer d'une part la croissance exponentielle de la complexite des circuits et d'autre part la diminution de leur temps de conception consequente a la diminution de leur duree de vie. Le differentiel croissant entre les capacites de traitement humaines et celles des ordinateurs rend ces derniers indispensables dans toutes les etapes de la conception. Les additionneurs et leurs derives sont des composants extremement frequents non seulement dans le chemin de donnees des microprocesseurs et processeurs de traitement de signal mais egalement dans tout circuit logique (dits encore numerique). Le delai de ces operateurs limite la frequence maximum de l'horloge des systemes synchrones. Beaucoup d'operation de gestion de processeurs, telles le calcul d'adresse d'instructions ou de donnees, ou la gestion du temps dans les caches ou les interruptions reposent sur l'addition ou le comptage. En outre de nombreuses operations arithmetiques comme la soustraction, la multiplication, la division, l'extraction de racines ou le calcul de fonctions elementaires reposent principalement sur l'addition pour leur algorithme et donc pour leur performance. Enfin le developpement d'additionneurs specifiques performant exige quelques connaissances en arithmetique, architecture et circuiterie. C'est pourquoi de nouvelles methodes et outils de syntheses sont necessaires. Dans cette these nous justifions l'interet de ces outils et de familles logiques alternatives. L'objectif de la presente these est de proposer des methodes efficaces et flexibles pour la synthese d'additionneurs, cela dans le but d'aider les concepteurs non experts en arithmetique a construire des additionneurs repondant au mieux a leurs attentes.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
9

Gros, Patrick. „Outils géométriques pour la modélisation et la reconnaissance d'objets polyédriques“. Phd thesis, Grenoble INPG, 1993. http://tel.archives-ouvertes.fr/tel-00005127.

Der volle Inhalt der Quelle
Annotation:
Cette these concerne la modelisation automatique d'objets polyedriques en vue d'une reconnaissance ulterieure de ces objets a partir d'une seule image. Lorsqu'on dispose de plusieurs images d'un objet a modeliser, le probleme consiste a determiner quelle information est necessaire pour une reconnaissance future de cet objet et comment cette information peut e^tre extraite des images. Nous envisageons deux types d'information. Tout d'abord, en se placant dans le cadre de la geometrie projective et de la theorie des invariants, nous montrons comment on peut extraire une information 3D numerique (coplanarite de points, birapports) caracteristique d'un objet, a partir de deux images appariees de celui-ci. Ensuite, nous proposons une methode d'extraction d'information visuelle a partir d'un ensemble d'images. Apres avoir apparie les images, on compare leur contenu, ce qui permet de les regrouper selon l'aspect de l'objet qu'elles representent. Chacun de ces aspects donne alors lieu a l'etablissement d'un modele qui regroupe l'information disponible a son propos. Les differents algorithmes proposes sont illustres sur des exemples d'images reelles ou synthetiques.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
10

Wamkeue, René. „Modélisation et identification statistique des machines synchrones, outils et concepts“. Thesis, National Library of Canada = Bibliothèque nationale du Canada, 1998. http://www.collectionscanada.ca/obj/s4/f2/dsk3/ftp04/nq33035.pdf.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
11

Dirix, Michel. „Pour une collaboration efficace dans les outils de modélisation logicielle“. Thesis, Lille 1, 2016. http://www.theses.fr/2016LIL10051/document.

Der volle Inhalt der Quelle
Annotation:
Depuis une vingtaine d’années, les logiciels ont atteint un stade très élevé de complexité. L’utilité de la modélisation logicielle s’est avérée de plus en plus importante, car elle s’abstrait de certaines préoccupations en ne fournissant que les informations relatives au point de vue souhaité, comme l’architecture ou les besoins utilisateurs. Toutefois l’activité de modélisation est une activité collaborative impliquant des développeurs, des architectes ou encore des clients. Avec la mondialisation, les équipes deviennent réparties à travers le monde impliquant des différences de culture, langage, fuseaux horaires. Si les environnements de modélisation ont par le passé été souvent mono-utilisateurs, supporter logiciellement la collaboration est devenue depuis peu un réel sujet d’étude. C’est dans ce contexte que s’inscrit ma thèse. Elle a tout d’abord pour but de définir un système de communication constituant la base de toutes collaborations entre utilisateurs d’outils de modélisation. La thèse vise ensuite à rendre efficace cette collaboration en plaçant la conscience de celle-ci au sein des précédents outils à l’aide de fonctionnalités collaboratives identifiées ou conçues dans mes travaux. Ces derniers ont été appliqués à l’outil GenMyModel, un outil de modélisation en ligne enregistrant plus de 200 000 utilisateurs, pour valider les différentes études et conceptions réalisées
For twenty years, the softwares have reached a very high stage of complexity. The usefulness of the software modeling became increasingly important as models provide an abstraction of the software, and allows the software designer to describe information about important viewpoints such as the architecture or the user needs. With the globalization, teams are distributed over the world, implying culture, language and timezones differences. The modeling activity is collaborative since it implies many stackholders such as developers, architects or clients. The modeling environments were historically single-user but the trend is to provide collaborative tools to address the aforementioned problems. The topic of my thesis is to provide an efficient collaboration. The first part deals with the definition of a communication system building the basis of all collaborations between the users in modeling tools. Then, I proposed a new and efficient collaboration by placing awareness at the center of modeling tools. This work has been implemented in the GenMyModel tool. GenMyModel is an online modeling tool registering more than 200.000 users which gave a perfect platform for the validation of the various studies and designs proposed in this thesis
APA, Harvard, Vancouver, ISO und andere Zitierweisen
12

Yriarte, Luc. „Modélisation et validation de robots autonomes : une méthodologie, des outils“. Montpellier 2, 1997. http://www.theses.fr/1997MON20141.

Der volle Inhalt der Quelle
Annotation:
Ce travail de these definit un cadre methodologique pour la modelisation et la validation de robots. La methodologie repose sur la definition de plusieurs niveaux de modeles, allant des specifications abstraites jusqu'au test sur des donnees enregistrees lors d'essais du robot en mode reel. Des outils ont ete implementes pour servir de support a chaque niveau de modelisation, comprenant : - un modele generique (ontologie) de la robotique permettant de diriger la specification d'un robot, et de la traduire sous la forme d'une base prolog interrogeable. - une plate-forme de simulation permettant de construire un modele executable, generant a chaque simulation une trace des variables specifiees au niveau superieur. - des outils de reconnaissance de motifs temporels, destines a analyser les traces du robot, en simulation ou en mode reel. Des essais ont ete menes sur un robot de laboratoire, en vue d'illustrer la pertinence de la methode.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
13

Lagadec, Loïc. „Abstraction, modélisation et outils de CAO pour les architectures reconfigurables“. Rennes 1, 2000. http://www.theses.fr/2000REN10144.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
14

Ben, Ayed Lanouar. „Modélisation numérique de l'emboutissage et optimisation des outils serre-flan“. Compiègne, 2005. http://www.theses.fr/2005COMP1600.

Der volle Inhalt der Quelle
Annotation:
L'objectif de nos travaux de recherches est de contrôler l'écoulement de la matière sous serre-flan, par la maîtrise et l'optimisation du profil des efforts serre-flan. En fonction des défauts qui doivent être évités, un problème d'optimisation a été formulé avec des fonctions limitations exprimant explicitement les critères de qualité choisis. Une procédure d'optimisation, basée sur la méthode de surface de réponse et un algorithme itératif de type SQP, a été proposée. Pour localiser l'optimum global avec précision et à moindre coût une stratégie de réactualisation de l'espace de recherche a été adoptée. La rupture, est évitée en utilisant le critère modifié de force maximale, qui a été couplé avec ABAQUS. Trois applications ont été étudiées. Les résultats obtenus mettent en évidence l'intérêt du contrôle de l'effort de serrage en fonction du temps et la nécessité pour certains cas d'utiliser plusieurs serre-flan afin d'améliorer la répartition de l'effort de serrage dans l'espace
The objective of our research tasks is to control the material flow under the blank holder through the control and the optimization of the blankholder force profiles. According to the defects which must be avoided, an optimization problem was formulated with inequality constraints functions expressing explicitly some selected quality criteria. An optimization procedure, based on the response surface method and an SQP algorithm, is proposed. To find the global optimum with precision and at lower cost an adaptative strategy of the research space is adopted. The rupture, is avoided by using the modified maximum force criterion, witch is coupled with ABAQUS. Three applications were studied. The optimization results highlight the interest in the control of the blankholder forces in relation of time and the need in certain cases to use several blank holder surfaces in order to improve the distribution of the blankholder force in space
APA, Harvard, Vancouver, ISO und andere Zitierweisen
15

Saccareau, Mathilde. „Modélisation épidémiologique et génétique des parasites gastro-intestinaux au sein d’un troupeau d’ovins“. Thesis, Toulouse, INPT, 2016. http://www.theses.fr/2016INPT0116/document.

Der volle Inhalt der Quelle
Annotation:
Les nématodes gastro-intestinaux sont l’une des contraintes majeures pour la santé des petits ruminants mis en pâture, entraînant de nombreuses pertes de production. Leur contrôle au moyen de traitements anthelminthiques est de moins en moins efficace à cause du développement de la résistance larvaire. De nombreuses recherches ont mené à l’étude de différentes stratégies complémentaires à l’utilisation massive de ces traitements chimiques : nutrition de l’hôte, gestion des pâtures, sélection génétique. Une approche de modélisation permet de simuler de multiples scénarios en minimisant l’effort expérimental, et notamment le recours à des infestations coûteuses en animaux, afin de trouver la meilleure stratégie de lutte intégrée du parasitisme. Le modèle épidémio-génétique précédemment développé par le Roslin Institute modélisant un troupeau d’agneaux en croissance infecté par le parasite T. circumcincta permet d’étudier l’impact d’une utilisation raisonnée des traitements, de la nutrition et de la résistance de l’hôte sur le niveau d’infection et de production du troupeau. Les travaux de la présente thèse consistaient à modifier ce modèle afin de modéliser des brebis adultes, notamment autour de la période d’agnelage où les besoins nutritionnels sont très importants. Cette modélisation a été complétée par la prise en compte du renouvellement d’un troupeau afin de considérer un troupeau durable, avec des accouplements, des réformes et des reproductions. Ainsi, notre modèle permet d’étudier les différentes stratégies de contrôle du parasite sur le long terme. Afin de s’assurer de la cohérence des sorties de cette modélisation avec des données réelles, le niveau d’infection a été comparé à celui de femelles infestées autour de l’agnelage. Cependant, comme de nombreux paramètres sont propres à la modélisation et donc non estimables à partir d’expérimentations, une analyse de sensibilité a aussi été mise en place pour dégager les paramètres qui contribuaient le plus à la variation du niveau d’infection. Parmi les parasites les plus fréquents chez le mouton, on trouve deux parasites majeurs T. circumcincta et H. contortus. Le parasite H. contortus est le plus virulent dans des climats chauds et humides, il nous paraissait donc utile de développer un nouveau modèle prenant en compte ce parasite. Préalablement, une méta-analyse des études utilisant des infections par le parasite H. contortus a été réalisée afin d’estimer les traits de vie du cycle parasitaire de ce parasite. Ces estimations ont ensuite été utilisées pour adapter le modèle épidémio-génétique à des infections par H. contortus. Cependant certains paramètres restent inconnus car ils ne sont pas estimables directement. C’est pourquoi nous avons réalisé l’estimation des trois paramètres inconnus principaux de notre modèle (précédemment soulignés par l’analyse de sensibilité sur T. circumcincta) en minimisant les écarts entre le niveau de charge parasitaire reportée dans une étude considérant des infestations successive par H. contortus ([25]) et nos simulations correspondantes. Dans cette thèse nous avons développé des modèles permettant d’évaluer sur le long terme les différentes stratégies de contrôle de deux nématodes gastro-intestinaux (T. circumcincta et H. contortus) dans les troupeaux ovins. Notamment, le modèle prenant en compte H. contortus pourra être utilisé pour prédire l’impact à l’échelle de l’élevage (nombre de traitements nécessaire, niveau d’infection des animaux) d’une sélection génétique sur la résistance au parasitisme dans une race. Les nématodes gastro-intestinaux sont l’une des contraintes majeures pour la santé des petits ruminants mis en pâture, entraînant de nombreuses pertes de production. Leur contrôle au moyen de traitements anthelminthiques est de moins en moins efficace à cause du développement de la résistance larvaire.
Gastro-intestinal parasitism is one of the most pervasive challenge for health and welfare in grazing small ruminants, leading to consequent production loss. Its control through the use of anthelminthic treatments is no longer sustainable due to the development of parasitic resistance to anthelmintics, but also due to environmental and consumer concerns. A substantial research effort proposed different supplementary control strategies to the massive use of anthelmintics: host nutrition, pasture management, breeding for resistance. Modelling approach allows for multiple scenarios to be considered without having to resort to experimentation in order to find the best integrated control strategies of parasitism. The epidemio-genetic model previously developed by the Roslin Institute modelling a growing lamb flock infected by the parasite T. circumcincta help to study the impact of rational use of anthelmintics, host nutrition and resistance on the flock level of infection and production. The researches of the current PhD thesis aimed to modify this model in order to add adult ewes modelling, especially around parturition where the nutritional requirements are very high. This modelling was improved by taking into account flock replacement in order to have a persistent flock with matings, reforms and reproductions. In this way, our model allows to study several control strategies of parasitism on long term perspective. In order to ensure adequacy of the model outputs to data, the infection level was compared to published data of ewes infected around parturition. However, some parameters were idiosyncratic to the modelling and then they were not be directly estimated from experiments. So a sensitivity analysis was also performed to highlight the parameters which mostly contribute to the infection level variations. Among the most prevalent parasites in sheep, T. circumcincta and H. contortus are the two main parasites. H. contortus is the most virulent parasite est le plus virulent parasite in hot and wet climates, so it is helpful to develop a similar model for this parasite. Beforehand, a meta-analysis of the published studies on infections with the H. contortus parasite was performed to estimate the main life history traits of its parasitic phase. Then, these estimations were used to change the epidemio-genetic model with H. contortus infections. However, some parameters remained unknown because they were not directly estimable. So, the three main unknown parameters (previously highlighted by the sensitivity analysis of the model with T. circumcincta infections) were estimated by minimizing the worm burden differences between published data of H. contortus trickle infection ([25]) and the corresponding model outputs. In this PhD thesis, models were developed in order to evaluate, in a long term perspective, several control strategies of two gastro-intestinal nematodes (T. circumcincta et H. contortus) infections in sheep flock. Notably, the model on H. contortus infections could be used to predict the impact of breeding for resistance to parasitism at the flock level (number of necessary treatments, infection level of the sheep)
APA, Harvard, Vancouver, ISO und andere Zitierweisen
16

Labib, Richard. „Processus de diffusion, outils de modélisation, de prévision et de contrôle“. Thesis, National Library of Canada = Bibliothèque nationale du Canada, 2000. http://www.collectionscanada.ca/obj/s4/f2/dsk2/ftp03/NQ53536.pdf.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
17

Henry, Delphine. „Outils pour la modélisation de structures et la simulation d'examens échographiques“. Université Joseph Fourier (Grenoble), 1997. http://www.theses.fr/1997GRE19008.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
18

Nguyen, Thi Lien Huong. „Outils pour la modélisation de la mise en oeuvre des bétons“. Phd thesis, Ecole des Ponts ParisTech, 2007. http://pastel.archives-ouvertes.fr/pastel-00004048.

Der volle Inhalt der Quelle
Annotation:
Que ce soit sur chantier ou en usine de préfabrication, de nombreux incidents de mise en œuvre apparaissent encore régulièrement malgré l'utilisation industrielle de bétons de plus en plus fluides: le béton mis en œuvre n'atteint pas les zones les plus difficiles d'accès ou ne remplit les zones les plus ferraillées. Les Bétons Auto-Plaçant (BAP) ont bien sûr repoussé les limites traditionnelles de densité de ferraillage ou de forme des coffrages mais leur grande fluidité peut les rendre potentiellement sensibles à une ségrégation partielle de leurs composants en écoulement ou sous l'effet de la gravité. L'objectifde cette thèse est de développer des techniques de prédiction de la mise en œuvre du matériau en fonction des mesures rhéologiques, des caractéristiques de l'élément à réaliser et du processus de mise en oeuvre retenu. La méthodologie adoptée consiste à isoler et à traiter séparément chacun des problèmes évoqués dans une configuration simplifiée puis de combiner ensuite graduellement les phénomènes mis en jeu. Un matériau modèle simple similaire au béton réel et pouvant reproduire les principaux traits du comportement rhéologique du béton est d'abord mis au point à partir de billes de verre mono-disperses de rugosité contrôlée mélangées dans une suspension de Carbopol, fluide à seuil, stable, transparent et non thixotrope. Une série d'essais sur ce matériau modèle en canal horizontal non ferraillé ou ferraillé, permet alors l'étude des phénomènes suivants: L'arrêt de l'écoulement sous l'influence du seuil d'écoulement du matériau et des caractéristiques du coffrage; l'arrêt de l'écoulement sous l'influence d'un ferraillage élémentaire; le blocage des granulats au droit des armatures. Ces expériences de laboratoire sont menées en parallèle avec des approches analytiques et des simulations numériques. Une corrélation analytique entre les propriétés rhéologiques du matériau et l'arrêt de l'écoulement est proposée et comparée aux simulations numériques et aux mesures expérimentales. De plus, un modèle probabiliste permettant de prédire l'apparition du blocage des granulats au passage d'un ferraillage en fonction de la taille des grains, de leur concentration, du volume de matériau traversant et de la géométrie de l'obstacle est construit à partir des expériences sur fluides modèles et ensuite validé sur des bétons réels. Une analogie entre zone ferraillée et milieu poreux est proposée en considérant le coulage d'un béton comme la propagation d'un fluide à seuil dans un milieu poreux hétérogène et anisotrope. Il devient alors possible d'associer à un plan de ferraillage donné une cartographie de perméabilité et ainsi se passer du maillage de chacune des barres d'acier. Cette technique est validée dans le cas d'écoulements simples de bétons réels dans des coffrages de laboratoire.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
19

Nguyen, Thi Lien Huong. „Outils pour la modélisation de la mise en oeuvre des bétons“. Phd thesis, Marne-la-vallée, ENPC, 2007. https://pastel.hal.science/view/index/identifiant/pastel-00004048.

Der volle Inhalt der Quelle
Annotation:
Que ce soit sur chantier ou en usine de préfabrication, de nombreux incidents de mise en œuvre apparaissent encore régulièrement malgré l'utilisation industrielle de bétons de plus en plus fluides: le béton mis en œuvre n'atteint pas les zones les plus difficiles d'accès ou ne remplit les zones les plus ferraillées. Les Bétons Auto-Plaçant (BAP) ont bien sûr repoussé les limites traditionnelles de densité de ferraillage ou de forme des coffrages mais leur grande fluidité peut les rendre potentiellement sensibles à une ségrégation partielle de leurs composants en écoulement ou sous l'effet de la gravité. L'objectifde cette thèse est de développer des techniques de prédiction de la mise en œuvre du matériau en fonction des mesures rhéologiques, des caractéristiques de l'élément à réaliser et du processus de mise en oeuvre retenu. La méthodologie adoptée consiste à isoler et à traiter séparément chacun des problèmes évoqués dans une configuration simplifiée puis de combiner ensuite graduellement les phénomènes mis en jeu. Un matériau modèle simple similaire au béton réel et pouvant reproduire les principaux traits du comportement rhéologique du béton est d'abord mis au point à partir de billes de verre mono-disperses de rugosité contrôlée mélangées dans une suspension de Carbopol, fluide à seuil, stable, transparent et non thixotrope. Une série d'essais sur ce matériau modèle en canal horizontal non ferraillé ou ferraillé, permet alors l'étude des phénomènes suivants: L'arrêt de l'écoulement sous l'influence du seuil d'écoulement du matériau et des caractéristiques du coffrage; l'arrêt de l'écoulement sous l'influence d'un ferraillage élémentaire; le blocage des granulats au droit des armatures. Ces expériences de laboratoire sont menées en parallèle avec des approches analytiques et des simulations numériques. Une corrélation analytique entre les propriétés rhéologiques du matériau et l'arrêt de l'écoulement est proposée et comparée aux simulations numériques et aux mesures expérimentales. De plus, un modèle probabiliste permettant de prédire l'apparition du blocage des granulats au passage d'un ferraillage en fonction de la taille des grains, de leur concentration, du volume de matériau traversant et de la géométrie de l'obstacle est construit à partir des expériences sur fluides modèles et ensuite validé sur des bétons réels. Une analogie entre zone ferraillée et milieu poreux est proposée en considérant le coulage d'un béton comme la propagation d'un fluide à seuil dans un milieu poreux hétérogène et anisotrope. Il devient alors possible d'associer à un plan de ferraillage donné une cartographie de perméabilité et ainsi se passer du maillage de chacune des barres d'acier. Cette technique est validée dans le cas d'écoulements simples de bétons réels dans des coffrages de laboratoire
APA, Harvard, Vancouver, ISO und andere Zitierweisen
20

Descatha, Alexis. „Surveillance épidémiologique des troubles musculo-squelettiques (TMS) : Quelles données et quels outils pour des résultats simples utilisables et fiables“. Paris 11, 2007. http://www.theses.fr/2007PA11T024.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
21

Gauvin, Laetitia. „Modélisation de systèmes socio-économiques à l'aide des outils de physique statistique“. Phd thesis, Université Pierre et Marie Curie - Paris VI, 2010. http://tel.archives-ouvertes.fr/tel-00556769.

Der volle Inhalt der Quelle
Annotation:
Cette thèse traite de l'étude des dynamiques résidentielles. Le travail est principalement tourné vers l'étude de l'émergence de ségrégation socio-spatiale à partir des comportements individuels. L'approche utilisée repose sur des outils de la physique statistique ainsi que la modélisation multi-agent. Dans un premier temps, un archétype pour l'explication de la ségrégation comme résultat des décisions individuelles, le modèle de ségrégation de l'économiste Schelling, est analysé via des méthodes empruntées à la physique statistique. Le point fort du modèle résulte dans l'émergence de structures ségrégatives qui ne sont pas la traduction directe des préférences individuelles. Un diagramme de phase est construit et les phases sont interprétées dans un contexte socio-économique. De plus, un lien entre ce modèle et un modèle de spins, le modèle de Blume-Emery-Griffiths, est mis en évidence. Dans un deuxième temps, ce lien est utilisé pour étendre le modèle de ségrégation en version ouverte. L'introduction des flux migratoires externes se fait ainsi via un potentiel chimique, interprété comme une mesure de l'attractivité du réseau - assimilable à une ville. De cette ouverture du système naît une ségrégation par formation d'espaces vides entre les agents des différents types. Enfin, un modèle de marché du logement, s'éloignant du modèle de Schelling, est élaboré en utilisant les notions d'attractivité et de préférences individuelles. Une résolution analytique de l'état stationnaire du système est réalisée et montre un bon accord avec les simulations. Une zone de mixité sociale est mis en évidence dans les simulations. De plus, les simulations reproduisent quelques phénomènes observés dans les transactions immobilières de Paris : des fluctuations intenses des prix au centre contre une tendance à l'homogénéisation à la périphérie.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
22

Batrancourt, Bénédicte. „Modélisation et outils logiciels pour une connaissance anatomo-fonctionnelle du Cerveau humain“. Lyon 1, 2003. http://www.theses.fr/2003LYO10271.

Der volle Inhalt der Quelle
Annotation:
Dans cette thèse, nous revisitons la méthode de la neuropsychologie définie comme l'étude des bases neurales des fonctions cognitives et comportementales par l'apport d'un modèle de représentation et d'organisation des données sur le cerveau et la création d'une base de données anatomo-fonctionnelles. Un Centre d'Anatomie Cognitive (C. A. C. ) a été constitué afin de permettre le recueil et le traitement des données chez des patients présentant des lésions cérébrales. Des logiciels de mise en relation et de fusion des données anatomiques et fonctionnelles, ont été développés afin de produire des connaissances anatomo-fonctionnelles, notamment sous forme de règles anatomo-fonctionnelles. Nous décrivons les résultats des traitements appliqués à la base de données ; l'objectif étant de proposer aux experts une mise en perspective d 'utilisation du système informatique, montrant que des traitements appropriés sur des données modélisées de façon complexe constituent un outil de recherche. L'objectif général de cette thèse est de proposer un référentiel anatomo-fonctionnel pour aider à la compréhension du fonctionnement cérébral normal et pathologique
APA, Harvard, Vancouver, ISO und andere Zitierweisen
23

Gauvin, Laetitia. „Modélisation de systèmes socio-économiques à l'aide des outils de physique statique“. Paris 6, 2010. http://www.theses.fr/2010PA066425.

Der volle Inhalt der Quelle
Annotation:
Cette thèse traite de l’étude des dynamiques résidentielles et en particulier de l’émergence de ségrégation socio-spatiale à partir des comportements individuels. L’approche utilisée repose sur des outils de physique statistique et la modélisation multi-agent. En premier lieu, un archétype pour l’explication de la ségrégation comme résultat des décisions individuelles, le modèle de ségrégation de l’économiste Schelling, est analysé via des méthodes empruntées à la physique statistique. Le point fort du modèle résulte dans l’émergence de structures ségrégatives qui ne sont pas la traduction directe des préférences individuelles. Un diagramme de phase est construit, les phases sont interprétées dans un contexte socio-économique. De plus, un lien entre ce modèle et un modèle de spins, le modèle de Blume-Emery-Griffiths, est mis en évidence. Ce lien est ensuite utilisé pour étendre le modèle de ségrégation en version ouverte. L’introduction des flux migratoires externes se fait ainsi via un potentiel chimique, vu comme une mesure de l’attractivité du réseau-ville. De cette ouverture du système naît une ségrégation par formation d’espaces vides entre les agents différents. Enfin, un modèle de marché du logement est élaboré en utilisant les notions d’attractivité et de préférences individuelles. L'état stationnaire résolu analytiquement par approximations successives montre un bon accord avec les simulations. Une zone de mixité sociale est mis en évidence dans les simulations. De plus, les simulations reproduisent des phénomènes observés dans les transactions immobilières de Paris : des fluctuations intenses des prix au centre contre une tendance à l’homogénéisation à la périphérie
APA, Harvard, Vancouver, ISO und andere Zitierweisen
24

Jonquet, Antoine. „Contribution à la modélisation de l'articulation du genou : outils géométriques et cinématiques“. Reims, 2007. http://theses.univ-reims.fr/exl-doc/GED00000724.pdf.

Der volle Inhalt der Quelle
Annotation:
Ce travail de thèse s'inscrit dans un projet transdisciplinaire visant à la mise en place d'un système d'aide à la rééducation de l'articulation du genou. Je devais fournir, à partir de données géométriques réelles, des courbes d'évolution cinématique de l'articulation. De plus, ce travail s'insère dans un projet plus vaste d'animation réaliste d'un humain virtuel. Dans cette optique j’ai cherché à modéliser une articulation (le genou) pour valider une méthodologie générale applicable au reste du squelette humain. J'ai ainsi mis en place des outils, tant géométriques que cinématiques, pour la modélisation d’une articulation. La modélisation géométrique des surfaces osseuses s'effectue à l'aide de surfaces continues à paramétrage global : les surfaces à base radiale. Celles-ci sont construites en deux étapes, à partir des données géométriques du maillage triangulaire issu d'un scanner : une paramétrisation du maillage, puis une interpolation. Pour pallier au problème de dimensionnalité, nous proposons une amélioration reposant sur les partitions de l'unité. Je définis ainsi une surface paramétrique continue à paramétrage global sur un maillage sans trou, ouvert ou fermé. A partir de cette description mathématique des surfaces osseuses appropriée à la simulation en mécanique lagrangienne, nous définissons alors un ensemble de contraintes afin d'exprimer le contact glissant entre deux surfaces osseuses. Ces nouvelles contraintes nécessitent l'introduction de nouvelles variables au sein des équations du mouvement. Enfin, nous revenons sur le problème de la gestion des contraintes simultanées en proposant une amélioration d'une méthode classique de gestion des contraintes
This thesis takes place in an interdisciplinary project aiming at the development of a system intended to the re-education of the knee join. My work had consisted in providing cinematic curves of the articulation evolution based real geometrical data. Furthermore, this work fits in an overall realistic human simulation project. From this viewpoint, I have modelled a join (the knee) to validate a general methodology that could be extended to the human skeleton. So, I developed tools for join simulation, both geometric and cinematic. The geometric modelling of the bone surfaces is done with smooth surfaces with global parameters: the radial basis surfaces. They are constructed in two stages from geometrical data of scanned triangular meshes: meshes parameterization, then interpolation. To overcome the dimensionality problem, we offered to improve this method with the use of the partition of unity method. By this way, I defined a smooth parametric surface with global parameters on an open or closed mesh without hole. From this mathematical description of the bone surfaces, appropriate to the lagragian simulation, we defined a set of constraints to express the sliding contact between two bone surfaces. For these constraints we need to introduce new unknowns in the equations of motion. Finally, we returned to the simultaneous constraints handling problem to improve a classical method for activating and deactivating constraints
APA, Harvard, Vancouver, ISO und andere Zitierweisen
25

Wasniewski, Marine. „Apport des outils de détection de l’immunité adaptés au contexte épidémiologique pour le contrôle et la surveillance de la rage animale“. Thesis, Paris Est, 2018. http://www.theses.fr/2018PESC1093.

Der volle Inhalt der Quelle
Annotation:
La rage est une zoonose mortelle, susceptible d’atteindre autant les mammifères sauvages et domestiques que l’Homme. Elle est à l’origine d’environ 70 000 décès humain déclarés par an, majoritairement des enfants dans les pays en développement. Le chien, réservoir majeur de l’espèce RABV, est à l’origine de 98-99% de ces décès. Quatorze espèces de Lyssavirus, circulant majoritairement chez les chiroptères sont actuellement reconnues. La vaccination, associée à des mesures sanitaires, reste le meilleur outil de prévention et de maîtrise de la maladie. A l’heure actuelle, seule la sérologie permet de contrôler l’efficacité de la vaccination antirabique, le développement des anticorps neutralisants étant le premier témoin d’une immunité protectrice. Les travaux s’appuyant sur la séroneutralisation virale, et notamment ceux auxquels j’ai participé, ont mis en évidence l’influence de différents facteurs dont certains ont conduit à préconiser des modifications de protocoles vaccinaux. Ils ont également permis d’assurer le suivi de l’efficacité de la vaccination individuelle ou de groupe sur le terrain et de contribuer à son amélioration. Les tests de séroneutralisation sont également utilisés dans le cadre de l’épidémiosurveillance de populations animales non vaccinées. La mise en œuvre de ces tests chez les chiroptères en France, après leur adaptation au Lyssavirus d’intérêt que j’ai menée à bien, a permis d’obtenir des informations sur la circulation des espèces virales EBLV-1 et EBLV-2, sur une base uniquement sérologique pour ce dernier. D’autre part, elle a permis de mettre en évidence au sein d’une même colonie des phénomènes de transition sérologique au cours du temps, dont l’étude mériterait d’être approfondie. Les tests de séroneutralisation sont cependant difficilement transférables aux pays où la rage est très présente, du fait de ressources limitées. Mes travaux, proposant l’utilisation d’un test ELISA comme méthode alternative, ont contribué à remettre en cause le dogme du recours nécessaire à la séroneutralisation. Ce test, couplé à un système de collecte d’échantillons sanguins adapté au terrain, devrait améliorer le suivi de l’efficacité des campagnes de vaccination de la faune sauvage comme des animaux domestiques, y compris dans les pays d’enzootie où la qualité des prélèvements de sang ne peut être assurée. Ainsi, les outils d’évaluation de la réponse immunitaire humorale sont des outils très précieux au service de la lutte et de la surveillance de la rage animale dans le monde. Mes travaux, complémentaires à ceux réalisés par d’autres équipes, ont contribué à rendre envisageable l’objectif prioritaire des organisations internationales : l’éradication de la rage canine dans le monde à l’horizon 2030. Il est cependant nécessaire de les poursuivre pour améliorer les outils disponibles et d’en proposer de plus adaptés, afin d’atteindre l’ensemble des objectifs d’éradication, de la rage canine comme de la rage selvatique
Rabies is a deadly zoonosis that can affect wild and domestic mammals as much as humans. About 70,000 human deaths are reported each year, mostly in children from developing countries. Dogs, which are the major reservoir and source of the RABV species, account for 98-99% of these deaths. Currently, fourteen species of Lyssavirus, mainly circulating in chiroptera, are officially recognized. Vaccination, combined with sanitary measures, remains the best tool for preventing and controlling the disease. To date, only serology has allowed to control the effectiveness of rabies vaccination, as the production of neutralizing antibodies is the first evidence of protective immunity. Studies based on viral seroneutralisation, including my own studies, have highlighted the influence of various factors. Some of them have led to recommend modifications of vaccine protocols. They also contributed to monitor the effectiveness of individual or group vaccination field programmes and to improve these programmes. Seroneutralisation tests are also used in the context of the epidemiological surveillance of unvaccinated animal populations. I first successfully adapted these tests to lyssaviruses of interest in France. In a second step, their implementation in chiropters in France provided information on the circulation of EBLV-1 and EBLV-2 species, (only on a serological basis for the latter). This survey also allowed to highlight, within a specific colony, a phenomenon of serological transition over time, which should deserve to be studied further. However, seroneutralisation tests are difficult to be implemented in countries where rabies is very prevalent, mainly because of limited resources. My work, which recommends the use of an ELISA test as an alternative method, contributed to questioning the dogma of the necessary use of seroneutralisation tests. This test, coupled with a blood sampling system adapted to the field, should improve the monitoring of the effectiveness of vaccination campaigns for both wildlife and domestic animals, including in enzootic countries, where the quality of the blood samples cannot be guaranteed. Humoral immune response assessment tools are very valuable tools for the control and surveillance of animal rabies all around the world. My work, complementary to those carried out by other teams, has helped to make the priority objective of international organizations possible, i.e. the eradication of canine rabies in the world by 2030. However, further works are needed to improve the available tools and to propose more adapted ones, in order to achieve all the goals of eradication, for both canine and sylvatic rabies
APA, Harvard, Vancouver, ISO und andere Zitierweisen
26

Collard, Éric. „Réalisation d'un tour de haute précision : modélisation et conception modulaire de guidages sur roulements“. Compiègne, 1995. http://www.theses.fr/1995COMPD831.

Der volle Inhalt der Quelle
Annotation:
Un tour de précision micrométrique a été développé dans le cadre d'un projet industriel. Des modules de guidage de précision submicronique sur roulements ont été conçus, réalisés et assemblés. La méthodologie de conception adoptée pour ce projet est basée sur l'utilisation ou le développement d'outils de modélisation et de simulation afin de déterminer a priori le comportement de la machine et de ses éléments et d'effectuer les meilleurs choix techniques.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
27

Allorent, Delphine. „Analyse et modélisation épidémiologique de la tache angulaire du haricot ("Phaseolus vulgaris") due à "Phaeoisariopsis griseola"“. Montpellier 2, 2005. http://www.theses.fr/2005MON20041.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
28

Hamlili, Ali. „Contribution à la modélisation dynamique des systèmes articulés : Bases mathématiques et outils informatiques“. Phd thesis, Ecole Nationale des Ponts et Chaussées, 1993. http://tel.archives-ouvertes.fr/tel-00523121.

Der volle Inhalt der Quelle
Annotation:
Dans cette thèse nous apportons deux contributions importantes par l'outil de l'abstraction mathématique : - La première contribution concerne la mécanique et plus précisément la modélisation dynamique des systèmes articulés. L'abstraction mathématique par la théorie des groupes et algèbres de Lie coordonnée avec un usage judicieux de la notion des nombres duaux permet d'élaborer un langage très commode où les modèles géométriques et dynamiques des systèmes mécaniques poly-articulés s'expriment sous une forme syntaxique relativement simple (malgré la complexité du système). De nouvelles méthodes pour la description des configurations des systèmes multicorps et un algorithme récurrent original (et très efficace) sont alors développés grâce à ce langage. - La seconde contribution concerne le domaine informatique en calcul formel. Elle est basée sur le typage algébrique, les techniques de réécriture et la génération automatique des codes (programmation assistée par ordinateur). Les problèmes soulevés nécessitent de nouvelles architectures de systèmes de calcul formel. Dans cet ordre d'idées, un prototype de système de calcul formel (SURVEYOR) basé sur la réécriture typée et une extension (MEDUSA MF77) du système Maple ont été réalisés. Un outil informatique pour la génération automatique des codes Fortran et Maple des schémas de calcul optimisés relatifs à notre formulation dynamique est développé à l'aide du système MEDUSA MF77. Plusieurs applications en calcul symbolique et en robotique sont, par ailleurs, présentées en annexes sous forme de réalisations informatiques des aspects théoriques traités.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
29

Hamon, Jérémy. „Outils et concepts de biologie systémique pour la modélisation prédictive de la toxicité“. Phd thesis, Université de Technologie de Compiègne, 2013. http://tel.archives-ouvertes.fr/tel-00975742.

Der volle Inhalt der Quelle
Annotation:
Le besoin actuel de comprendre les conséquences précises que l'administration d'une molécule va avoir sur un organisme et les organes qui le composent, est un enjeu majeur pour la recherche pharmaceutique et l'étude de la toxicité des xénobiotiques. Il n'est pas difficile de se rendre compte, quand les effets sont observables, qu'il existe un lien entre la dose administrée d'un xénobiotique et ses effets. La difficulté de les prédire, qu'ils soient bénéfiques ou délétères, réside principalement dans le fait qu'un nombre très important de mécanismes complexes sont mis en jeu, dès l'entrée de cette molécule dans l'organisme et jusqu'à son excrétion. Afin de comprendre et quantifier ce lien, et pour pouvoir faire des prédictions, il est nécessaire de connaître les principaux mécanismes biologiques impliqués et de proposer des modèles mathématiques les décrivant. Le travail présenté dans cette thèse montre que l'utilisation de la biologie systémique n'est pas facile et manque encore de maturité. Au-delà de la diversité des connaissances auxquelles elle fait appel, on se rend compte que la quantité de données et de paramètres à gérer est considérable. Pour un modèle ne prenant en compte qu'une seule voie de signalisation, comme celui présenté ici, plusieurs mois ont été nécessaires pour sa calibration. Cette durée est en grande partie imputable au temps de calculs nécessaire aux estimations des paramètres, et à celui nécessaire à la récolte et aux traitements des données très diverses (données PK, omiques, physiologiques, cellulaires, etc). Il est très important que le protocole de collecte des données soit défini en commun par l'ensemble des équipes les utilisant par la suite.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
30

Besri, Abdelhadi. „Modélisation analytique et outils pour l'optimisation des transformateurs de puissance haute fréquence planars“. Phd thesis, Université de Grenoble, 2011. http://tel.archives-ouvertes.fr/tel-00612344.

Der volle Inhalt der Quelle
Annotation:
Avec un encombrement minimal et rendement de 99% les transformateurs planars haute fréquence sont des solutions technologiques importantes pour les systèmes de conversion et de conditionnement de l'énergie électrique en électronique de puissance. L'objectif de l'étude consiste à rechercher un modèle du composant permettant à la fois de simuler son comportement dans un circuit d'électronique de puissance et d'optimiser ses performances lors de sa conception. Les modèles proposés prennent en compte les propriétés physiques et géométriques du composant. Les validations sont basées sur des confrontations avec les mesures. Une autre motivation forte de ce travail est que les modélisations numériques doivent prendre en compte simultanément les effets des courants induits et les capacités parasites, ce qui conduit, en haute fréquence, à des besoins prohibitifs en termes de capacité mémoire ou de temps de calcul. En se limitant aux transformateurs planar. La modélisation (dite LEEC) présentée ici s'appuie sur une discrétisation à échelle intermédiaire : spire par spire, c'est-à-dire couche par couche. Elle assemble deux approches analytiques déjà introduites par l'équipe : la première traite les aspects électrocinétiques (incluant les courants induits) et magnétiques et l'autre les aspects électrostatiques. Les circuits à constantes localisées basés sur la méthode LEEC montrent un très bon accord avec toutes les mesures jusqu'à 40 MHz. Des outils numériques sont aussi développés pour faciliter l'obtention de ces différents circuits en partant : soit de la description du composant, soit de mesures d'impédances. Pour compléter, la représentation des capacités d'un transformateur quelconque, développée en plusieurs étapes par l'équipe, est résumée et des précautions expérimentales originales appliquées à l'impédancemétrie sont exposées dans le détail. D'autres travaux visant à élargir le champ d'application de la méthode LEEC sont également présentés.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
31

Thiébaut, Mélanie. „Morphométrie et modélisation des formes : outils révélateurs de la biodiversité des macroflores tertiaires“. Lyon 1, 2001. http://www.theses.fr/2001LYO10102.

Der volle Inhalt der Quelle
Annotation:
L'étude des macrorestes végétaux se limite souvent aux spécimens en meilleur état, par manque de caractères fiables de détermination. Afin de mieux estimer la biodiversité des flores tertiaires, et d'avoir une vision biologique des taxons fossiles en intégrant leur variabilité intra- et interspécifique, il serait souhaitable d'inclure les restes ignorés des inventaires paléofloristiques. Pour cela, une méthode encore trop rarement employée en paléobotanique a été choisie : la morphométrie. Une première partie de ce travail est destinée à tester l'efficacité de la morphométrie traditionnelle pour regrouper des feuilles actuelles et fossiles dans leur taxon. En un premier temps, les feuilles de quatre espèces de saules, deux de leurs hybrides, deux espèces de peupliers, et deux espèces n'appartenant pas aux Salicacées ont été étudiées. Les caractères foliaires continus mesurés sur ce matériel ont permis, après analyses multivariées, d'obtenir des regroupements de chaque feuille dans son taxon d'appartenance, à l'exception d'une feuille de Populus alba, regroupée avec celles de Populus tremula. Et ce, malgré des formes de limbe très similaires, un très important polymorphisme foliaire, allié à des problèmes d'hybridation. En un second temps, la même méthode a été appliquée à un échantillon d'empreintes fragmentaires fossiles appartenant à plusieurs espèces du genre Salix, et a fourni des résultats très satisfaisants. Une seconde partie a été consacrée à la modélisation de la forme de samares. Ainsi, il a été possible de discriminer les fruits de deux espèces actuelles d'érable, puis de reconnaître, parmi plusieurs populations fossiles de samares de Cedrelospermum, une nouvelles espèces européenne de ce genre aujourd'hui -C. Hablyae-, en dépit d'un très fort phénomène de convergence de ces fruits ailés, dû à leur fonction de dispersion. Les différents types de samares, actuelles et fossiles, ont pu être comparés, par analyses multivariées et représentation graphique superposée de leurs contours.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
32

Oudjene, Mourad. „Modélisation et optimisation du comportement mécanique des outils d'emboutissage stratifiés précontraints par vissage“. Vandoeuvre-les-Nancy, INPL, 2005. http://docnum.univ-lorraine.fr/public/INPL/2005_OUDJENE_M.pdf.

Der volle Inhalt der Quelle
Annotation:
Dans le contexte de l'emboutissage des tôles, les outils jouent un rôle crucial et le coût global d'une pièce emboutie est fortement influencé par le coût des outils, dépendant du volume de production. Pour la petite et moyenne série ou pour le prototypage rapide, les outils d'emboutissage peuvent être fabriqués par un empilement de strates métalliques, assemblés par diverses techniques (collage, vissage, boulonnage. . . ). Chaque strate est obtenue par découpe laser et micro-fraisage (comme dans la Stratoconception®). Ce travail, original en ce qui concerne les outils d'emboutissage, consiste à proposer une méthodologie numérique permettant l'analyse du comportement tridimensionnel des outils d'emboutissage, en particulier les outils prototypes fabriqués par empilement successif de couches métalliques (strates) et assemblés par vissage, l'objectif final étant de pouvoir dimensionner, voire optimiser leurs conception, notamment le système d'assemblages des strates par des vis précontraintes. Afin de surmonter les difficultés qu'implique la simulation de l'emboutissage en considérant les outils déformables (maillages, temps CPU. . . ) ainsi que celles liées à l'aspect stratifié des outils, nous proposons et nous développons une approche simplifiée en deux étapes qui a l'avantage de découpler les non-linéarités de l'emboutissage et l'analyse linéaire élastique des outils déformables. La démarche a été appliquée avec succès dans le cadre des outils stratifiés assemblés par vissage (obtenus par Stratoconception®). Dans ce contexte, nous avons également proposé une procédure d'optimisation des positions des vis précontraintes afin d'améliorer la conception et la tenue mécanique des outils stratifiés, notamment en augmentant la durée de vie des vis précontraintes
In sheet metal stamping, the forming tools play a crucial role and the global cost of stamped parts is highly influenced by the cost of the tools, depending on the production volume. For low volume or for rapid prototyping, stamping tools can be made by an assemblage of steel sheets or layers, assembled by different techniques (glue, screws, bolts. . . ). Each layer is obtained by laser cutting and micro-milling (as in the Stratoconception® approach). The present work deals with the design of stamping tools obtained by the assemblage of plates in layers and fixed by screws. We propose and validate a numerical approach for the 3D stress analysis of the multilayered tools. The final original objective is to optimize the layered stamping tools assembled by screws. In order to avoid the great difficulties involved for the numerical simulation of the stamping process taking into account deformable and layered tools assembled by screws, we develop a simplified approach based on two steps, based on the decoupling of the non-linearities of the stamping process and the linear elastic analysis of the deformable tools. Several examples are considered with multilayered steel tools assembled by screws and produced by the Stratoconception® approach. We finally proposed an optimization procedure of the screw positions as an attempt to improve the design and the strength of the layered tools by increasing the life duration of the screws
APA, Harvard, Vancouver, ISO und andere Zitierweisen
33

Cuny, Jérôme. „RMN du solide et modélisation : outils convergents pour le développement de nouveaux matériaux“. Rennes 1, 2010. http://www.theses.fr/2010REN1S067.

Der volle Inhalt der Quelle
Annotation:
Ce travail est consacré à l’étude de composés à cluster de molybdène (Mo) par une approche combinant RMN ⁹⁵Mo en phase solide et calculs quantiques. La RMN en phase solide et les outils de mesure utilisés sont présentés dans une première partie. Les aspects théoriques liés au calcul de paramètres RMN dans les systèmes périodiques sont décrits. La validation des méthodes de calcul est présentée dans le cas de molybdates ternaires et de l’hexacarbonyle de Mo. L’étude de composés à clusters de Mo est ensuite abordée. Nous présentons la validation des méthodes de calcul et des approches expérimentales utilisées dans le cas du ⁹⁵Mo pour six composés modèles. L’étude de composés présentant des indéterminations structurales est ensuite abordée. La dernière partie est dédiée à l’étude d’oxydes de Mo: une famille de composés incorporant le cluster Mo₃O₁₃ le composé NaMo₄O₆ et les composés AR₉Mo₁₆ O₃₅ (A = Li, Mg, Zn et R = terre-rare) qui présentent un cluster original Mo₁₆
This thesis is devoted to the study of molybdenum (Mo) cluster compounds using an approach that combines solid-state ⁹⁵MoNMR and quantum calculations. The solid-state NMR spectroscopy and the measurement tools that were used are presented in the first part. The theoretical aspects related to the quantum calculation of NMR parameters in periodic systems are described. The validation of the computational methods used in the case of model Mo compounds: ternary molybdates and the Mo hexacarbonyl. The study of Mo cluster compounds is then presented. We present the validation of the computational methods and the experimental approaches used in the case of the ⁹⁵Mo nucleus for six model compounds. The study of compounds that present structural indetermination is then presented. The last part is devoted to the study of oxide compounds : a family of compounds that contain the cluster Mo₃O₁₃, NaMo₄O₆ and the compounds AR₉Mo₁₆ O₃₅ (A = Li, Mg, Zn and R = rare-earth) that present the cluster Mo16
APA, Harvard, Vancouver, ISO und andere Zitierweisen
34

Spagnuolo, Michela. „Outils d'abstraction des formes géométriques pour la modélisation et l'analyse des surfaces naturelles“. Lyon, INSA, 1997. http://www.theses.fr/1997ISAL0125.

Der volle Inhalt der Quelle
Annotation:
Cette étude est centrée sur le rôle de la modélisation dans le cadre de la manipulation des données spatiales et a décrit une approche méthodologique de la modélisation des surfaces capable de supporter un niveau conceptuel de communication entre les utilisateurs et les systèmes d'ordinateurs. Le but de la recherche était de développer une approche intégrée à la modélisation des surfaces naturelle pour la définition de représentations fortement descriptives (modélisation basée sur la forme). Modéliser sur la base de la forme signifie, partout où cela est possible, reconstruire la surface en parallèle ou a posteriori en rapport avec la reconnaissance des formes structurelles dans les données brutes, en supposant que les données sont généralement recueillies du monde réel selon des axes privilégiés. Avec une approche basée sur la forme, la modélisation des surfaces naturelles serait considérée comme un processus combiné de raffinage/abstraction, qui demande plusieurs niveaux de modèles interdépendants (niveaux conceptuels), chacun étant le résultat d'un processus d'analyse. Dans cette perspective, la création d'outils d'abstraction des formes géométriques a été reconnue comme une phase nécessaire et une nouvelle méthode pour caractériser la forme d'une surface représentée par un modèle linéaire en pièces a été développée. La combinaison des techniques classiques de la topologie et de la géométrie différentielle fournit des méthodes simples pour l'évaluation de plusieurs descripteurs de la forme. Sur la base de cette idée, nous avons défini une analyse qualitative permettant d'évaluer la courbure "le long" des arêtes et "autour" des triangles afin d'identifier les régions dont la forme est classifiée comme concave, convexe, plaine ou en forme de selle. Les régions de courbure proposées sont définies comme étant les composantes interdépendantes du modèle de surface représenté par un graphique et donnent lieu à une décomposition unique de la surface qui peut être utilisée pour l'implémentation parallèle et possède une complexité de calcul linéaire
This dissertation focuses on the rote of modelling within spatial data handling and describes a methodological approach to surface modelling which supports a conceptual level of communication between users and computer systems. The research goal was the development of an integrated approach to natural surface modelling for the definition of highly descriptive representations (shape-based modelling). Shape-based modelling consists in performing, whenever possible, the surface reconstruction in parallel or a posteriori with respect to the recognition of structural shapes in the raw data, assuming that data are generally gathered from the real world following some privileged directions. Using a shape-based approach, natural surface modelling would be considered as a combined refinement/abstraction process, which requires different levels of interrelated models (conceptual levels) each deriving from an analysis process. In this context, shape-abstraction tools has been recognised as a necessary step and a new method for characterising the shape of a surface represented by a piece-wise linear mode! has been developed Combining classical topological techniques and differential geometry provides simple methods for evaluating several shape descriptors. Based on this idea a qualitative analysis is defined to estimate the curvature "along" edges and "around" triangles in order to identify regions whose shape is classified as concave, convex, planar or saddle. The proposed curvature regions are defined as connected components of the graph surface model and give rise to a unique surface decomposition which is suitable for parallel implementation and has a linear computational complexity
APA, Harvard, Vancouver, ISO und andere Zitierweisen
35

Michel, Fabien. „Formalisme, outils et éléments méthodologiques pour la modélisation et la simulation multi-agents“. Montpellier 2, 2004. http://www.theses.fr/2004MON20210.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
36

Halila, Faycel. „Modélisation analytique et caractérisation expérimentale de l'usure par abrasion des outils de coupe“. Thesis, Université de Lorraine, 2015. http://www.theses.fr/2015LORR0147/document.

Der volle Inhalt der Quelle
Annotation:
Les difficultés majeures rencontrées en production des pièces mécaniques métalliques sont dues aux conditions de chargements extrêmes appliqués lors de la mise en forme ainsi qu'au problème de l'usure prématurée des outils de coupe de coupe. Dans ce cadre, les travaux de thèse sont centrés sur la mise en évidence et la compréhension des mécanismes physiques mis en jeu lors de l'usure des outils de coupe depuis l'échelle de la microstructure jusqu'à celle du système usinant, en passant par l'échelle de la pointe de l'outil (échelle mésoscopique). A cet effet, Un modèle analytique permettant de décrire l'usure par abrasion et de prédire la durée de vie des outils a été développé sur la base d'une approche statistique rendant compte de l'hétérogénéité des particules pouvant être à l'origine de la dégradation de l'outil. La prise en compte de la nature du contact collant-glissant et de l'effet du coefficient de frottement via des résultats de la littérature couplés au modèle proposé ont permis de mettre en évidence l'influence des paramètres opératoires de la coupe des métaux sur le volume d'usure enlevé par abrasion. A la suite ce modèle a été confronté à des résultats expérimentaux préalablement réalisé dans le cadre de la coupe orthogonale. En parallèle une analyse inclusionnaire est réalisée pour l'identification et la quantification des inclusions non métallique jugées responsable de l'usure par abrasion. Les résultats obtenue via des observations MEB et microscopique ainsi que des traitements d'images a permis d'alimenter en données le modèle prédictif
Tool wear and tool failure are critical problems in the industrial manufacturing field since they affect the quality of the machined workpiece (unexpected surface finish or dimensional tolerance) and raise the production cost. Improving our knowledge of wear mechanisms and capabilities of wear prediction are therefore of great importance in machining. The three main wear modes usually identified at the tool/chip and the tool/workpiece interfaces are abrasion, adhesion and diffusion. Besides the fact that understanding mechanisms that govern these wear mechanisms are still incomplete, the experimental analysis is very difficult because friction interface features (such as temperature, pressure, particles embedded in the contact …) are not easily measurable. The objective of this research work is to understand the physical mechanisms governing the tool wear by taking into account the sensibilities to scale going from the microscopic scale (microstructure scale) to the macroscopic scale (scale of the manufacturing operation) passing by the mesoscopic scale (tool tip scale). For this purpose, an analytic wear model was developed to describe the abrasive wear and to predict the cutting tool life. The proposed model is based on a tribological approach including a statistical description of the distribution of particles seen as non-metallic inclusions. The latter are assumed embedded at the interface of contact and having a conical shape characterized by two main parameters in the present approach: the corresponding size and apex angle. The volume of the removed material per unit time is chosen in this study as the main parameter to describe the abrasive wear mode. Coupled with literature results, the developed model is able to take into account the nature of the sticking-sliding contact and the effect of the friction coefficient on the rake face of the cutting tool. In order to identify all the material's parameters of the predictive model, a study of non-metallic inclusion considered responsible of the abrasive wear was performed on the 42CD4 steel. The determination of inclusion type and inclusion morphology was assessed qualitatively and quantitatively through microscopic and MEB observations as well as image processing. Finally, the volume removed by abrasion given by the model was compared to the experimental results previously achieved under orthogonal cutting
APA, Harvard, Vancouver, ISO und andere Zitierweisen
37

Bouzid, Karim. „Développement des outils et méthodes de conception d'empilements OLED, vers une modélisation prédictive“. Thesis, Grenoble, 2014. http://www.theses.fr/2014GRENT114/document.

Der volle Inhalt der Quelle
Annotation:
Cette thèse s'articule autour de l'optimisation électro-optique des OLEDs (Organic Light Emitting Device) via le développement de méthodes et d'outils de simulation. La modélisation électrique des OLEDs est complexe et sujette à recherche. Au début de la thèse, aucune simulation électrique des OLEDs de l'état de l'art n'avait été présentée jusqu'alors. Le développement d'une simulation, fondée sur des données expérimentales, contribuerait à l'établissement d'une modélisation prédictive, pour une meilleure compréhension et une R&D plus efficace. Dans un premier temps, une méthode d'extraction des paramètres de transport des matériaux utilisés est développée par fit (reconstitution des résultats expérimentaux par simulation) via la fabrication de dispositifs spécifiques. Lesdites valeurs, extraites et comparées selon deux modèles de mobilité, ont assurées la constitution d'une base de données. L'emploi de celle-ci a permis la réalisation de la simulation, complète et à plusieurs températures, du comportement électrique d'une OLED entière. L'étude minutieuse des profils intrinsèques simulés a servi à relever une accumulation de charges à l'interface de recombinaison, néfaste à l'évolution dans le temps des performances du dispositif. Dans un second temps, nous nous sommes proposé de solutionner le problème par la création d'un mélange bipolaire, afin d'élargir le profil de recombinaison. Après optimisation du mélange au sein de l'OLED, une augmentation de durée de vie à mi luminance de ca. +30% a été mise en évidence, de même qu'une stabilisation en tension du point de couleur. Pour approfondir la compréhension des mécanismes en jeu, la caractérisation TOF-SIMS d'empilements organiques a fait l'objet d'études. Les premiers résultats, très encourageants, ont permis la reconstitution entière du profil chimique de l'empilement OLED. Une deuxième série de résultats a démontré la possibilité de détecter les molécules organiques telles qu'évaporées, qui donnera accès à des informations plus poussées sur la dégradation des matériaux. Enfin, une cathode alternative en WO3/Ag/WO3 (WAW) a été optimisée par simulation dans le but de démontrer l'importance de l'augmentation du coefficient d'extraction de lumière. La réalisation des dispositifs a permis de démontrer une hausse de la luminance et de l'efficacité de 40% due à la cathode, en accord avec la simulation. Le transfert du point de procédé sur une machine de catégorie industrielle a résulté en la fabrication de dispositifs OLED avec cathode WAW présentant une augmentation de la durée de vie à mi luminance de +75% par rapport à la référence
The work presented here revolves around electrical and optical optimization of OLEDs (Organic Light Emitting Device) through the development of simulation methods and tools. The electrical modeling of OLED is a complex field, belonging to R&D. At the beginning of this work, no state of the art OLED electrical simulation has been presented yet. The development of simulation, based on experimental data, would contribute to the establishment of predictive simulation, allowing a better understanding and faster R&D cycles. Firstly, an extraction method for organic semiconductors' transport parameters has been developed by fit procedure (reconstitution of experimental results with simulation). The extracted values, compared between the two mobility models, were used to compile a database. These sets allowed the realization of the simulation at various temperatures of the electrical behavior of a complete OLED stack. The careful analysis of the simulated intrinsic profiles gave an insight on charge accumulation at the recombination interface, harmful for the lifetime performance of the device. Secondly, we proposed to solve the problem with a bipolar blend to enlarge the recombination profile. After optimization of the blend inside the OLED, an increase of the lifetime of ca. +30% has been highlighted, as well as the stabilization of the color point dependency to voltage. To further understand the mechanisms related to the insertion of this layer, TOF-SIMS characterization of organic layers was studied. Very promising early results allowed the profiling of a full OLED stack, and determination of each layer. A second wave of results, bound to Ar beam analysis, demonstrated the possibility to detect undamaged molecule signatures, giving access to far more degradation related information than before. Finally, an alternative cathode made of WO3/Ag/WO3 (WAW) has been optimized for white OLED microdisplays to enhance the light outcoupling coefficient. The fabrication of the devices demonstrated a +40% increase in luminance and current efficiency, in perfect agreement with simulation. The transfer of the process onto an industrial class deposition cluster tool resulted in the fabrication of OLEDs with WAW cathodes demonstrating a +75% increase of the lifetime at half luminance
APA, Harvard, Vancouver, ISO und andere Zitierweisen
38

Piolle, Guillaume. „Agents utilisateurs pour la protection des données personnelles : modélisation logique et outils informatiques“. Phd thesis, Université Joseph Fourier (Grenoble), 2009. http://tel.archives-ouvertes.fr/tel-00401295.

Der volle Inhalt der Quelle
Annotation:
Les usages dans le domaine des systèmes multi-agents ont évolué de manière à intégrer davantage les utilisateurs humains dans les applications. La manipulation d'informations privées par des agents autonomes appelle alors à une protection adaptée des données personnelles. Les présents travaux examinent d'abord le contexte légal de la protection de la vie privée, ainsi que
les divers moyens informatiques destinés à la protection des données personnelles. Il en ressort un besoin de solutions fondées sur les méthodes d'IA, autorisant à la fois un raisonnement sur les réglementations et l'adaptation du comportement d'un agent à ces réglementations. Dans cette perspective, nous proposons le modèle d'agent PAw (Privacy-Aware) et la logique DLP (Deontic Logic for Privacy), conçue pour traiter des réglementations provenant d'autorités multiples. Le composant de raisonnement normatif de l'agent analyse son contexte hétérogène et fournit une politique cohérente pour le traitement des données personnelles. L'agent PAw contrôle alors automatiquement sa propre utilisation des données en regard de cette politique. Afin d'appliquer cette politique de manière distante, nous étudions les différentes architectures d'applications distribuées orientées vers la protection de la vie privée, notamment celles fondées sur les principes du Trusted Computing. Nous en proposons une complémentaire, illustrant la possibilité d'utiliser différemment cette technologie. L'implémentation de l'agent PAw permet la démonstration de ses principes sur trois scénarios, montrant ainsi l'adaptabilité de l'agent à son contexte normatif et l'influence des réglementations sur le comportement de l'application.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
39

Piolle, Guillaume. „Agents utilisateurs pour la protection des données personnelles : modélisation logique et outils informatiques“. Phd thesis, Grenoble 1, 2009. https://theses.hal.science/tel-00401295.

Der volle Inhalt der Quelle
Annotation:
Les usages dans le domaine des systèmes multi-agents ont évolué de manière à intégrer davantage les utilisateurs humains dans les applications. La manipulation d'informations privées par des agents autonomes appelle alors à une protection adaptée des données personnelles. Les présents travaux examinent d'abord le contexte légal de la protection de la vie privée, ainsi que les divers moyens informatiques destinés à la protection des données personnelles. Il en ressort un besoin de solutions fondées sur les méthodes d'IA, autorisant à la fois un raisonnement sur les réglementations et l'adaptation du comportement d'un agent à ces réglementations. Dans cette perspective, nous proposons le modèle d'agent PAw (Privacy-Aware) et la logique DLP (Deontic Logic for Privacy), conçue pour traiter des réglementations provenant d'autorités multiples. Le composant de raisonnement normatif de l'agent analyse son contexte hétérogène et fournit une politique cohérente pour le traitement des données personnelles. L'agent PAw contrôle alors automatiquement sa propre utilisation des données en regard de cette politique. Afin d'appliquer cette politique de manière distante, nous étudions les différentes architectures d'applications distribuées orientées vers la protection de la vie privée, notamment celles fondées sur les principes du Trusted Computing. Nous en proposons une complémentaire, illustrant la possibilité d'utiliser différemment cette technologie. L'implémentation de l'agent PAw permet la démonstration de ses principes sur trois scénarios, montrant ainsi l'adaptabilité de l'agent à son contexte normatif et l'influence des réglementations sur le comportement de l'application
Usage in the domain of multi-agent systems has evolved so as to integrate human users more closely in the applications. Manipulation of private information by autonomous agents has then called for an adapted protection of personal data. This work first examines the legal context of privacy protection and the various computing methods aiming at personal data protection. Surveys show a significant need for AI-based solutions, allowing both reasoning on the regulations themselves and automatically adapting an agent's behaviour to these regulations. The Privacy-Aware (PAw) agent model and the Deontic Logic for Privacy, designed to deal with regulations coming from multiple authorities, are proposed here in this perspective. The agent's normative reasoning component analyses its heterogeneous context and provides a consistent policy for dealing with personal information. PAw agent then automatically controls its own usage of the data with regard to the resulting policy. In order to enforce policies in a remote manner, we study the different distributed application architectures oriented towards privacy protection, several of them based on the principles of Trusted Computing. We propose a complementary one, illustrating a different possible usage of this technology. Implementation of the PAw agent allows demonstration of its principles over three scenarios, thus showing the adaptability of the agent to its normative context and the influence of the regulations over the behaviour of the application
APA, Harvard, Vancouver, ISO und andere Zitierweisen
40

Bahi, Slim. „Modélisation hybride du frottement local à l'interface outil-copeau en usinage des alliages métalliques“. Paris, ENSAM, 2010. http://www.theses.fr/2010ENAM0041.

Der volle Inhalt der Quelle
Annotation:
Dans ce travail de thèse, une approche hybride (analytique-numérique) a été développée dans le cas de l'usinage des alliages métalliques. La modélisation thermomécanique de l'écoulement du matériau dans la zone de cisaillement primaire, la longueur de contact outil-copeau ainsi que les dimensions des zones de contact collant et glissant ont été obtenues via une approche analytique. L'approche numérique a été introduite pour résoudre le problème thermique non linéaire dans le copeau à l'aide de la méthode des éléments finis. Les zones de contact collant et glissant à l'interface ont été prises en compte en considérant un champ de vitesses conforme aux observations expérimentales. Il a été montré dans cette étude que la coexistence d'un contact collant-glissant influence considérablement l'état de contraintes et la distribution de la température à l'interface outil-copeau. La nature hybride de l'approche proposée permet d'analyser, avec un faible temps de calcul, l'effet des différents paramètres d'usinage (conditions de coupe, paramètres matériaux, géométrie d'outils, etc. ) sur le comportement tribologique dans le contact. Enfin, l'approche hybride développée dans le cadre de cette thèse a permis de mettre en place une loi de frottement physique évolutive mettant en relation le frottement apparent mesuré expérimentalement, le frottement local et le comportement thermomécanique du matériau usiné
In this research work, a hybrid (analytical-numerical) approach has been performed in machining of metallic alloys. The thermomechanical model of material flow in the primary shear zone, the tool-chip contact length and the sticking and sliding contact parts have been obtained by an analytical approach. The numerical analysis has been introduced in order to solve the non linear thermal problem on the chip using Finite Element Method. The sticking and sliding zones have been taking into account considering a velocity field in accordance with experimental observations. It has been shown that the coexistence of a sticking and sliding contacts strongly influence the state of stresses and temperature distribution at the tool-chip interface. The proposed approach allows analyzing with a small computation time, the effect of machining parameters (cutting conditions, tool geometry, etc. ) on the tribological behaviour of the contact. A relationship between the apparent friction coefficient (obtained by experimental data), the local friction coefficient and the thermomechanical behaviour has been established through a new physical friction law
APA, Harvard, Vancouver, ISO und andere Zitierweisen
41

Tailland, Johan. „Instruments intelligents : modèle et outils de conception“. Chambéry, 2000. http://www.theses.fr/2000CHAMS014.

Der volle Inhalt der Quelle
Annotation:
Les travaux présentés dans cette thèse portent sur la modélisation et la conception d'instruments intelligents. D'un point de vue externe, nous considérons qu'un instrument intelligent (capteur, actionneur, contrôleur) se comporte comme un serveur. Il propose à ses clients (opérateurs, instruments intelligents), des services que nous nommons services externes. Une telle approche, fondée sur un modèle client-serveur, facilite l'interopérabilité, mais ne permet pas cependant la conception simple et rapide des instruments. Dans cette thèse, nous proposons un modèle qui tient compte à la fois des services externes d'un instrument mais aussi des traitements, appelés services internes, qui les composent. Cette structuration permet de dégager ce qui a trait à l'utilisation ou à l'exploitation (services externes), de ce qui est lié à la conception (services internes). Elle est renforcée par les notions de modes externes et de modes internes qui sont respectivement des sous-ensembles des services externes et de services internes et qui sont associés à l'état de l'instrument. Le modèle générique proposé s'appuie sur un ensemble de propriétés dont la vérification garantit le bon fonctionnement de l'instrument. Ce modèle a donné naissance à une plate-forme logicielle de conception d'instruments intelligents qui comprend un langage de description (langage CAP), un compilateur de ce langage et des outils de vérification et de génération automatique d'applications. Ces outils logiciels permettent, à partir d'une description dans le langage CAP, d'engendrer automatiquement le programme exécutable d'un instrument cible ainsi que l'IHM qui lui est associé, tout en vérifiant la conformité au modèle. Ces outils ont été conçus de manière à être utilisés par des non-spécialistes du domaine, formant ainsi une chaîne de prototypage rapide. Une validation du modèle est proposée dans le cadre de la conception d'un télémètre ultrasonore à modulation de fréquence et d'un capteur de couleur.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
42

Diop, Papa Abdoulaye. „Risques émergents et résilience des écosystèmes soumis à des pressions anthropiques : modélisation intégrée économique et éco-épidémiologique“. Rouen, 2016. http://www.theses.fr/2016ROUED005.

Der volle Inhalt der Quelle
Annotation:
De nombreux risques classiques semblent destinés à prendre de nouvelles formes tandis que de nouveaux apparaissent. En effet, aux risques classiques auxquels les individus étaient confrontés, se sont greffés d’autres en lien direct avec les évolutions scientifiques, technologiques, économiques et sociétales actuelles. Ces risques additionnels dits « émergents » peuvent présenter certains effets négatifs manifestes sur les écosystèmes et les populations qui y vivent. II peut s’agir notamment de situation de surmortalité de ressources suite à l’occurrence de maladies infectieuses ou encore une sensibilité plus accrue des ressources à celles-ci. II peut s’agir également de l’accumulation de pollution dans les tissus des organismes susceptible d’engendrer des risques sanitaires et environnementaux différents de ceux envisagés jusqu’alors. Du fait de la vulnérabilité des écosystèmes face à ces risques environnementaux nouveaux et de leurs implications socio-économiques, a émergé une prise de conscience collective sur leur nature potentiellement catastrophique. En cherchant à s’approprier les apports mutuels de l’analyse économique et de la modélisation biomathématique, cette thèse confronte la théorie modélisée et la contextualisation empirique découlant des risques émergents. Elle se focalise sur la problématique de la conservation des ressources renouvelables exploitées face à l’acuité des risques émergents dont les effets inédits sont occultés par la modélisation bioéconomique classique. Elle vise à contribuer à la prévention des risques environnementaux nouveaux pour la biodiversité grâce au développement d’outils théoriques et appliqués issus d’une modélisation intégrée économique et éco-épidémiologique. Ainsi, en s’inspirant du cadre standard de la bioéconomie et en s’appuyant sur la modélisation compartimentale, cette thèse montre les capacités du prélèvement à améliorer les capacités de résilience des écosystèmes et le niveau des prélèvements à l’équilibre lorsqu’une surmortalité en lien avec une maladie infectieuse affecte un système. Elle établit ainsi un résultat qui va à l’opposé des mesures classiques conservatives qui sont préconisées dans le but d’améliorer la résilience et la stabilité des écosystèmes. En abordant des problèmes essentiels tels que la bioaccumulation des polluants et ses conséquences, elle met également en évidence des modifications dans la dynamique des modèles standards de pollution/ressource lorsque la propriété de bioaccumulation des polluants émergents est prise en compte. Face à l'acuité du phénomène des risques émergents pour la biodiversité, cette thèse ouvre ainsi de nouvelles perspectives dans les mécanismes de gestion durable des populations des écosystèmes exploités et offre de nouvelles approches dans la compréhension des dynamiques qui peuvent intervenir dans les écosystèmes dont les populations sont soumises à l’influence d’altéragènes émergents et/ou ré-émergents
Numerous classic risks are apparently meant to take new forms whereas novel ones are appearing. In fact new threats that are directly related to the current scientific, technologic, economic and social evolutions have added to the classic ones. These “emergent” additional hazards could present a certain number of potential negative effects on ecosystems and to the resources living in such affected areas. It could notably be about a case of excess death rate of resources following either the outbreak of infectious diseases, or even resources’ sensitivity to these infections. Conversely it could be about the accumulation of pollution in the tissue of organisms which are likely to trigger sanitary and environmental threats and which diverge from those that have been considered so far. Because of ecosystems’ vulnerability towards these new environmental risks and thanks to their socioeconomic involvement, people have developed a growing awareness as for as these threats’ potentially catastrophic nature is concerned. While using economic analysis’ literature as well as biomathematics’ tools within the framework of this dissertation, the latter confronts the modeled theory and the empirical contextualization deriving from emerging risks. Our study focuses on the topic of the conservation of renewable resources which are exploited in the face of emerging dangers’ acuteness and whose unfamiliar effects have been forgotten by classic bio-economic modelling. It aims at partaking in the prevention of new environmental risks for biodiversity, thanks to the development of applied and theoretical tools deriving from economic and eco-epidemiologic integrated modelling. Subsequently by learning from biomechanics’ standard framework and with the support of compartmental modelling, this thesis shows the capacities of harvesting to improve the ecosystems’ resilience abilities, as well as the harvesting level at the steady state when an infectious disease affects an ecosystem. It thence leads to results which go against the conservative classic measures that have been recommended to ameliorate the ecosystems’ resilience and stability. Through tackling pivotal issues such as the pollutants’ bioaccumulation and its consequences, it also foregrounds some modifications in the dynamics of the standard models of pollution/resource when the pollutants’ bioaccumulation propriety is taken into account. So to deal with the phenomenon of emerging threats’ acuteness to biodiversity, this dissertation breaks new ground in the sustainable management’s mechanisms of the resources living in exploited ecosystems, while offering new approaches to the understanding of the dynamics that can intervene in ecosystems whose populations rely on the influence of emerging or re-emerging risks
APA, Harvard, Vancouver, ISO und andere Zitierweisen
43

Velay, Vincent. „Modélisation du comportement cyclique et de la durée de vie d'aciers à outils martensitiques“. Phd thesis, École Nationale Supérieure des Mines de Paris, 2003. http://pastel.archives-ouvertes.fr/pastel-00001209.

Der volle Inhalt der Quelle
Annotation:
Ce travail constitue une contribution visant à décrire le comportement et prédire la durée de vie en fatigue d'aciers à outils pour travail à chaud. Pour y parvenir, la méthodologie suivie, s'articule autour de deux parties complémentaires qui sont l'étude de modèles de comportement et de durée de vie adaptés aux aciers martensitiques revenus. Le comportement cyclique des aciers X38CrMoV5 (47HCR) et 55NiCrMoV7 (42 HCR) a été étudié dans différentes conditions de sollicitations et de température. L'influence de la vitesse et de l'amplitude de déformation, des temps de maintien dans les cycles ainsi que les effets de rochet ou d'accommodation plastique pour des essais pilotés en contrainte ont été inclus dans la modélisation. Deux modèles (ONERA, 2M1C) s'inscrivant dans le cadre des processus irréversibles de la thermodynamique ont été considérés. Ils ont été présentés et identifiés avec succès par niveau de complexité croissant selon les types de sollicitations pris en compte. Comparé au modèle ONERA, le modèle 2M1V permet les meilleures descriptions des essais en déformation et des essais à contrainte imposée. En outre,deux mécanismes différents issus du modèle ont été rattachés aux évolutions de microstructure (dislocations, carbures) identifiées en fatigue oligocyclique. Deux étapes de validation ont ensuite été menées fournissant des résultats encourageants: la première, dans une configuration isotherme à l'aide d'essais à déplacement imposé réalisés sur des éprouvettes à concentration de contraintes, la deuxième anisotherme à partir d'essais de fatigue thermique menés conjointement avec l'université de KARLSTAD (Suède). L'étude de la durée de vie de l'acier X38CrMoV5 a été abordée dans une deuxième partie. Afin de couvrir une large gamme de sollicitations comparable à celle induite dans les procédés de mise en forme à chaud, des essais LCF ont été effectués pour compléter la base expérimentale existante. Les mécanismes d'amorçage et de propagation en fatigue relaxation à 560°C ont de plus été étudiés. Enfin, un modèle d'endommagement continu anisotherme de type ONERA a été identifié. L'analyse des résultats expérimentaux utilisés lors de l'identification n'a pas fait apparaître de mécanisme dépendant du temps, aussi seule la composante d'endommagement de fatigue a été activée dans la modélisation. La dernière phase de cette étude concerne la validation du modèle de durée de vie. Les prédictions fournies par le modèle ont été comparées avec le nombre de cycles à rupture issu d'essais LCF et TMF d'un précédent travail.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
44

Moretti, Basiliu. „Modélisation du comportement des feux de forêt pour des outils d’aide à la décision“. Thesis, Corte, 2015. http://www.theses.fr/2015CORT0007/document.

Der volle Inhalt der Quelle
Annotation:
La modélisation de la propagation des feux de forêt est une matière complexe pouvant être abordée de différentes manières (approche physique, semi-physique, empirique). Nombre de simulateurs existent avec chacun leurs particularités, leurs avantages et leurs points faibles. Les travaux qui ont conduits à la rédaction de cette thèse visent à l’amélioration du modèle physique simplifié de propagation de Balbi et al, 2007 ainsi qu’à la pose des premières pierres visant à le faire évoluer vers un modèle de comportement du feu. Ils se sont articulés autour de 3 grands axes :• La modélisation de la propagation d’un feu de surface avec pour principal moteur le transfert de chaleur radiatif. Cette modélisation à conduit à réaliser des améliorations concernant la formulation de la vitesse à plat sans vent. Elle a enfin conduit à caractériser de deux critères d’extinction portant sur des valeurs critique de deux paramètres du combustible (l’indice de surface foliaire et de la teneur en eau du combustible).• La quantification de l’énergie rayonnée par le front de flamme. Cette quantification, a été réalisée en prenant pour hypothèse le modèle de flamme solide. Cette approche a conduit à l’obtention d’une relation analytique permettant l’évaluation des Distances de Sécurité Admissibles (DSA) dans un temps très restreint.• L’étude de sensibilité des différents résultats obtenus afin de valider l’ensemble de ceux-ci et identifier l’influence relative des différents paramètres
Modeling the spread of forest fires is a complex affair which can be examined in different ways (physical, semi-physical, empirical). Numerous simulators exist, each one bearing its own particularities, benefits and weak points. The work which has led to the writing of this thesis aims at improving the simplified physical model of fire propagation (Balbi et al, 2007), as well as at laying down the first foundation stones of what will favor an evolution towards a fire behavioral pattern. This study is based upon three main themes :• Modeling the spread of a surface fire with the main engine the radiative heat transfer. This modeling leads to achieve improvements in the formulation of its speed on flat ground, without wind. It finally led to the characterization of two criteria of extinction with characterization of critical values of two parameters (leaf area index and the water content of the fuel).• Quantification of the energy radiating from the flame front. This quantification was performed assuming the solid flame model. This approach has led to obtaining an analytical relationship for the evaluation of Admissible Safety Distance (ASD) in a very short time. • Sensitivity analysis of the different results attained in order to confirm them as a whole and identify the relative influence of various parameters
APA, Harvard, Vancouver, ISO und andere Zitierweisen
45

Assayad, Ismaël. „Méthodologie et outils pour la modélisation et l'analyse de performance des systèmes embarqués multiprocesseurs“. Grenoble INPG, 2006. http://www.theses.fr/2006INPG0165.

Der volle Inhalt der Quelle
Annotation:
Nous présentons une framework pour la modélisation et l'analyse de performance des systèmes embarqués multiprocesseurs. Elle est constituée de composants modélisant du logiciel parallèle et du matériel multiprocesseur, et des outils pour la génération de code et l'analyse de performances. La méthodologie permet une analyse conjointe du logiciel et du matériel et rend ainsi possible la prédiction de l'impact du matériel sur les performances du logiciel ainsi que la capacité du matériel à s'adapter à de futurs services. Nous appliquons cette méthodologie pour analyser les performances de plusieurs implémentations de l'encodage vidéo MPEG-4 sur une plateforme multimédia, le réseau-sur-puce de Philips Wasabi/Cake, ainsi qu'une application de transmission de paquets IPv4 sur le réseau de processeurs Intel IXP2800. Les expériences effectuées prouvent que notre méthodologie passe à l'échelle et fournit des résultats de performances précis avec des vitesses de simulation rapides
We present a framework and tools for modelling and performance analysis of multiprocessor embedded systems. Our framework consists of component-based models for modelling parallel software and multiprocessor hardware, and tools for code generation and performance analysis. The framework allows jointly analyzing software and hardware performance rather than evaluating each one in isolation. This joint evaluation enables predicting the impact of hardware on software performance and the ability of hardware performance to accommodate future services at design time. We apply the framework for analyzing the performance of several implementations of a MPEG-4 video encoding on custom multimedia hardware, Philips Wasabi/Cake NoC, and IPv4 packet forwarding over the Intel dual IXP2800 NP. The experiments carried out on these real-life industrial-size applications show that our framework is scalable and delivers precise performance results with fast simulation speed
APA, Harvard, Vancouver, ISO und andere Zitierweisen
46

Nolin, Loïc. „Outils d'aide à l'étude des protéines: modélisation surfacique et visualisation sémantique des feuillets béta“. Reims, 2010. http://theses.univ-reims.fr/sciences/2010REIMS008.pdf.

Der volle Inhalt der Quelle
Annotation:
L'enjeu de ces travaux consiste en la représentation de motifs structuraux réguliers des protéines : les feuillets β. Les représentations classiques de la modélisation moléculaire n'étant pas satisfaisantes, étant donne qu'elles ne représentent pas les feuillets β dans leur ensemble, nous proposons nos modèles représentant ces structures sous forme de surfaces. Nous utilisons le logiciel open source ≪ BALLView ≫ pour créer nos propres modèles de feuillets β. La première approche utilise la description des feuillets β présente dans les fichiers issus de la ≪ Protein Data Bank ≫, la banque de données mondiale de structures protéiques, pour calculer une interpolation bidimensionnelle basée sur les splines de Catmull-Rom. La seconde approche utilise des carreaux de Bézier, construits a partir des résultats issus d'un algorithme d'attribution des structures secondaires des protéines, dont les feuillets β font partie. Ces approches sont les premières à représenter les feuillets β dans leur ensemble. Les modèles classiques ne représentent que les brins β. Pour visualiser leur orientation nous plaquons cette information par le biais de textures. Cela nous amène à considérer nos surfaces comme de nouveaux medias sur lesquels nous pouvons dépeindre des données supplémentaires par l'intermédiaire de méthodes de coloration (≪ Hydrophobic Cluster Analysis ≫, ≪ Molecular Hydrophobicity Potential ≫…). Nos modèles sont utilisables sur l'ensemble des fichiers au format PDB, en statique, mais également sur des fichiers de simulation de dynamique moléculaire. Nous pouvons alors constater l'évolution des feuillets β, leurs déformations, l'apparition de trous, d'invaginations ou de déchirures. Ces constatations nous amènent à baptiser nos modèles SheHeRASADe pour ≪ Sheets Helper for RepresentAtion of SurfAce Descriptors ≫. Nous nous intéressons, entre autres, à l'application de ces modèles sur les divers repliements protéiques des feuillets β repertoriés dans la classification CATH, ainsi qu'aux fibres amyloides, impliquées dans de nombreuses pathologies
The aim of this work consists in the representation of common structural motifs of proteins: the β sheets. The classical visualization modes are not satisfying, considering that they don't represent the whole β sheets. We propose innovative models materializing those structures using surfaces. We use the open source software "BALLView" to create our own β sheet models. The first one uses the β sheets description stored in files from the Protein Data Bank, the worldwide data bank of proteic structures, to compute a bidimensionnal interpolated surface based on Catmull-Rom splines. The second one uses Bezier patches defined from β sheets produced by a secondary structure prediction algorithm. Those models are the first ones to fully represent β sheets. Previous methods only represent β strands. In order to visualize their orientation, we map these important data to our surfaces by using textures. It leads us to consider our surfaces as a new medium on which we can depict additional information using coloring methods (Hydrophobic Cluster Analysis, Molecular Hydrophobicity Potential. . . ). Our models are available for any PDB formatted file, in both static and dynamic ways, using molecular dynamics simulations. We can observe the evolution of β sheets, deformations, holes appearances, invaginations or splits. Those observations lead us to call our models SheHeRASADe for "Sheets Helper for RepresentAtion of SurfAce Descriptors". We apply those models to the different proteic folds of β sheets listed in the CATH classification, and on amyloid fibrils involved in many diseases
APA, Harvard, Vancouver, ISO und andere Zitierweisen
47

Durcos, Sylviane. „Outils informatiques supports aux méthodes de modélisation et de conception de systèmes de production“. Bordeaux 1, 1995. http://www.theses.fr/1995BOR10676.

Der volle Inhalt der Quelle
Annotation:
Le travail de recherche presente dans ce memoire concerne la conception et le developpement d'outils logiciels supports aux methodes de modelisation et de conception (mmc) des systemes de production. Un etat de l'art detaille permet de justifier l'utilisation de l'approche orientee objets. Ceci nous amene a proposer un cadre de developpement a deux niveaux : - generique (pour tout logiciel a interface graphique avancee) et - specifique au domaine des mmc. Cette approche est appliquee au developpement d'un outil informatique support a gim (grai integrated methodology) dans le cadre du projet eureka time tool.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
48

Nouari, Mohammed. „Modélisation de l'usure par diffusion des outils de coupe en usinage à grande vitesse“. Metz, 2000. http://docnum.univ-lorraine.fr/public/UPV-M/Theses/2000/Nouari.Mohammed.SMZ0039.pdf.

Der volle Inhalt der Quelle
Annotation:
Ces dernières années ont vu naître un intérêt croissant pour l'usinage à très grandes vitesses (UTGV) ; cet intérêt est suscité par les gains de productivité et la qualité des pièces obtenues. Toutefois, dans cette gamme de vitesses l'outil s'use plus rapidement à cause de l'élévation de la température à l'interface outil-copeau. En général on distingue trois modes d'usure : l'abrasion, l'adhésion et la diffusion. Comme la diffusion est le seul phénomène thermiquement activé (contrairement à l'abrasion et à l'adhésion), elle demeure le mode d'usure prépondérant à haute température. La perte par diffusion des composants chimiques réduit la résistance mécanique de l'outil et son efficacité. C'est pourquoi, la détermination de l'usure de l'outil et l'estimation de sa durée de vie figurent parmi les principaux objectifs de la recherche sur la coupe des métaux. La majorité des modèles existants est basée sur des approches empiriques qui font intervenir plusieurs paramètres dont l'identification nécessite des essais longs et couteux. Le peu d'études analytiques qui ont abordé ce problème ne tiennent pas compte de tous les phénomènes mis en jeu lors du processus de coupe, entre autres de la convection de la matière et de l'évolution de la concentration à l'interface pendant la diffusion. Dans cette étude, deux modèles d'usure par diffusion sont proposes, selon que l'on tienne compte de la température moyenne uniforme ou de la distribution non uniforme de la température à l'interface outil-copeau. Ces modèles permettent de calculer analytiquement les concentrations des espèces chimiques dues au flux diffusionnel, la masse perdue par l'outil, et la profondeur du cratère formé à la surface de coupe de celui-ci. Ainsi deux lois d'usure sont établies donnant la durée de vie de l'outil en fonction des conditions de coupe et des paramètres physico-chimiques des matériaux de l'outil et de la pièce. Ces modèles permettent aussi d'effectuer plus facilement une étude paramétrique montrant l'effet des conditions de coupe, des paramètres physico-chimiques des matériaux utilisés et de leur comportement thermomécanique sur l'usure. Ceci facilitera considérablement la recherche des conditions optimales pour un couple outil-pièce donné. La confrontation des résultats des modèles avec ceux de l'expérience a montré une concordance satisfaisante
APA, Harvard, Vancouver, ISO und andere Zitierweisen
49

Segreti, Michel. „Vibrations en coupe orthogonale : Modélisation, étude de stabilité et validation expérimentale“. Metz, 2002. http://docnum.univ-lorraine.fr/public/UPV-M/Theses/2002/Segreti.Michel.SMZ0201.pdf.

Der volle Inhalt der Quelle
Annotation:
Cette thèse porte sur la modélisation des vibrations de l'outil en coupe orthogonale, l'étude de stabilité du processus et la validation expérimentale. Dans ce travail, un modèle à un seul, puis à deux degrés de liberté du processus vibratoire a été développé. Pour des conditions de coupe données, il est possible d'estimer les efforts de coupe instantanés, d'obtenir la réponse dynamique de l'outil et donc l'état de surface final, et de prévoir la limite de stabilité du processus caractérisée par des lobes. Différents effets couplés ont été pris en compte tels que : le frottement à l'interface outil-copeau fonction de la vitesse du copeau, les variations de la quantité de matière usinée dues aux ondulations de la surface à usiner associées aux oscillations de l'outil, les variations instantanées de l'angle de coupe et de dépouille, l'effet de la pente de la surface à usinersur l'angle de cisaillement et le contact en dépouille de l'outil avec la surface nouvellement usinée.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
50

Iarussi, Emmanuel. „Outils de dessin informatique pour les débutants, les passionnés et les professionnels“. Thesis, Nice, 2015. http://www.theses.fr/2015NICE4064/document.

Der volle Inhalt der Quelle
Annotation:
Le but de cette thèse est de faciliter et d'accélérer le dessin pour les amateurs ainsi que pour les dessinateurs experts en utilisant des techniques de traitement d'image et d'interaction. Nous identifions trois problèmes spécifiques liés au dessin, et proposons des outils pour aider les utilisateurs à surmonter les principaux défis sur chaque domaine. Dans le chapitre 2, nous présentons un outil de dessin interactif pour aider des débutants à pratiquer les techniques traditionnelles de dessin par observation. Nous construisons cet outil autour de techniques traditionnelle. Nous extrayons automatiquement des guides visuels à partir d'une photographie. L'interface de l'outil affiche ces informations et offre un retour pour guider l'utilisateur dans la reproduction du dessin. Dans le chapitre 3, nous proposons un outil qui permet aux utilisateurs de créer des bijoux par pliage de fils de fer. Cette forme de bijoux faits à la main peut être considérée comme une forme de dessin à base de fil de fer. La méthode présentée aide l'utilisateur dans les principaux défis de la création de bijoux à partir d'un dessin: la décomposition de l'entrée dans un ensemble de fils, et le pliage des fils pour leur donner forme. Dans le chapitre 4, nous proposons une méthode pour aider les designers à enrichir leurs dessins avec de la couleur et de l'ombrage. Les designers tracent souvent des lignes de courbure pour représenter la forme des surfaces lisses dans des esquisses. Nous exploitons cette information et extrapolons les lignes de courbure dans le design. Cette extrapolation nous permet d'estimer la courbure 3D du dessin, pour créer des ombres et des textures sur l'esquisse
The goal of this thesis is to facilitate and accelerate drawing for amateurs as well as for expert designers and illustrators, employing computer graphics, image processing and interaction techniques. As this is a broad spectrum to tackle, we identify three specific problems related to drawing and propose computer tools to help users overcome the main challenges on each domain. In Chapter 2 we present an interactive drawing tool to help beginners practice drawing-by-observation techniques. We build on a number of traditional techniques to help people gain consciousness of the shapes in a scene. We automatically extract visual guides from a model photograph and offer corrective feedback to guide their reproduction in the drawing. In Chapter 3 we propose a tool that helps users create wire wrapped jewelry. This technique of handmade jewelry can be seen as a form of line drawing with metal wires. The presented method assist the user in the main challenges of creating 2D wire-wrapped jewelry from a drawing: decomposing the input into a set of wires, and bending the wires to give them shape. In Chapter 4 we propose a method to help designers enrich their drawings with color and shading. Professionals frequently draw curvature lines to convey bending of smooth surfaces in concept sketches. We exploit this information and extrapolate curvature lines in a rough concept sketch. This extrapolation allows us to recover the intended 3D curvature and surface normal at each pixel, which we use to compute shading and texturing over the sketch
APA, Harvard, Vancouver, ISO und andere Zitierweisen
Wir bieten Rabatte auf alle Premium-Pläne für Autoren, deren Werke in thematische Literatursammlungen aufgenommen wurden. Kontaktieren Sie uns, um einen einzigartigen Promo-Code zu erhalten!

Zur Bibliographie