Um die anderen Arten von Veröffentlichungen zu diesem Thema anzuzeigen, folgen Sie diesem Link: Basé sur la structure.

Dissertationen zum Thema „Basé sur la structure“

Geben Sie eine Quelle nach APA, MLA, Chicago, Harvard und anderen Zitierweisen an

Wählen Sie eine Art der Quelle aus:

Machen Sie sich mit Top-50 Dissertationen für die Forschung zum Thema "Basé sur la structure" bekannt.

Neben jedem Werk im Literaturverzeichnis ist die Option "Zur Bibliographie hinzufügen" verfügbar. Nutzen Sie sie, wird Ihre bibliographische Angabe des gewählten Werkes nach der nötigen Zitierweise (APA, MLA, Harvard, Chicago, Vancouver usw.) automatisch gestaltet.

Sie können auch den vollen Text der wissenschaftlichen Publikation im PDF-Format herunterladen und eine Online-Annotation der Arbeit lesen, wenn die relevanten Parameter in den Metadaten verfügbar sind.

Sehen Sie die Dissertationen für verschiedene Spezialgebieten durch und erstellen Sie Ihre Bibliographie auf korrekte Weise.

1

Ngo, Ba Hung. „Système de fichiers sémantique basé sur le contexte“. Evry, Institut national des télécommunications, 2009. http://www.theses.fr/2009TELE0008.

Der volle Inhalt der Quelle
Annotation:
Retrouver facilement et a posteriori des informations personnelles (fichiers, pages de Web, photos, courriels) est, de nos jours, indispensable pour l'ensemble des utilisateurs de bureaux informatiques. Malheureusement, les utilisateurs ne disposent pas de méthode unifié pour retrouver ces informations en provenance de multiples sources. Ils doivent jongler entre navigation dans une arborescence de fichiers traditionnelle et recherche à travers des moteurs d'indexation et de recherche sur le bureau informatique. En complément, les systèmes d'étiquetage sont de plus en plus utilisés pour faciliter la recherche de ressources sur Internet. Parmi les caractéristiques de fichiers personnels (propriétés, contenu, contexte) exploitées par les modèles de recherche de fichiers personnels, les contextes de travail des utilisateurs sont une caractéristique pertinente pour aider un utilisateur à retrouver ses fichiers personnels avec succès. Cette thèse propose un modèle de recherche de fichiers personnels, intitulé recherche de fichiers personnels par contexte, pour un système de fichiers sémantique. Un contexte est un ensemble d'étiquettes que l'utilisateur associe au fichier. Pour retrouver un fichier personnel, un utilisateur décrit le contexte de travail, qu'il pense lié au fichier. Le système calcule les contextes existants les plus proches de la requête et fournit une réponse qui peut être raffinée par navigation. Nous développons notre modèle en améliorant le modèle d'étiquetage traditionnel. À partir d'une relation entre étiquettes et de la popularité des étiquettes, nous proposons des algorithmes permettant d'organiser les étiquettes créées par un utilisateur dans un graphe orienté acyclique (DAGoT- Directed Acyclic Graph of Tags en anglais). Ce DAGoT est utilisé comme modèle de données de base pour mettre en œuvre le modèle de recherche de fichiers personnels par contexte. Ce graphe est utilisé par nos algorithmes pour reconnaître les contextes de travail associés aux fichiers personnels, guider l'utilisateur pour reconstruire un contexte de travail et raffiner les requêtes de recherche de fichiers personnels, retrouver de fichiers personnels par contexte
Organizing the information that we call personal files such as files in a home directory, web pages found on the Internet, images, emails for later revisiting is currently required by many computer users. Several information retrieval models are proposed to fullfil this requirement. Each model is characterized by the types of personal files, their organization and the searching method used. Traditional file systems let a user organize his files into a directory tree and retrieve them later by browsing the directory tree. Desktop seach tools such as Google Desktop or Beagle automatically index file properties and file content (keywords) to provide the user with file retrieval by querying on file properties or on file content. Semantic file systems propose a searching method that combines querying with browsing to give to the users the advantages of both searching methods. For informations on the Internet, tagging systems are more and more used to facilitate the re-finding of these Internet ressources. Among personal file characteristics (properties, content, context) exploited by the above retrieval models, the working context of the user has been proved to be relevant to help a user to successfully retrieve his personal files. This work proposes a model for personal file retrieval, called « context-based model for personal file retrieval ». Our model allows a user to associate his personal files with a working context using tags. To retrieve a personal file, the user must describe the working context corresponding to each file. The searching method in our model gives to the users the advantages of both searching methods: browsing and querying. We develop our model by improving traditional tagging models. Based on tag relationships and popularities, we organize tags created by a user into a directed acyclic graph (DAGoT). This DAGoT is used as the basic data model to realize our context-based model for personal file retrieval. We use this graph to recognize working contexts associated to personal files, guide a user to reconstruct his working contexts, refine the searching requests, and retrieve personal files by context
APA, Harvard, Vancouver, ISO und andere Zitierweisen
2

Vigueras-Gomez, Flavio. „Système de réalité augmentée basé sur l'observation de structures planes:conception et évaluation“. Phd thesis, Université Henri Poincaré - Nancy I, 2007. http://tel.archives-ouvertes.fr/tel-00177040.

Der volle Inhalt der Quelle
Annotation:
L'objectif de la Réalité Augmentée (RA) est d'intégrer des objets virtuels dans des images d'une scène réelle.
Les applications de la RA nécessitent que la scène augmentée soit continuellement mise à jour en fonction des mouvements de la caméra dans la scène.
Il est donc primordial de pouvoir calculer à chaque instant les paramètres de la caméra pour avoir une composition cohérente.
Cependant, les paramètres calculés sont souvent affectés par des fluctuations statistiques, ce qui nuit à l'impression visuelle de la scène augmentée.
Le problème de stabilisation de la caméra a été considéré par Kanatani et Matsuaga qui classifient les déplacements de la caméra par un certain nombre de modèles de mouvement.
Nous avons proposé de poursuivre leurs travaux dans un cadre d'environnements de type multi-planaire et de tester différents critères de sélection de modèles, ce qui a mis en évidence que l'usage de critères impliquant l'information sur la covariance des paramètres calculés améliorait la précision et la robustesse des points de vues calculées.

Idéalement, un système de RA devrait fonctionner dans un environnement sans besoin de préparer la scène.
Dans cette thèse, nous considérons les problèmes du calcul du point de vue et des paramètres intrinsèques de la caméra dans le cadre d'environnements de type mu
lti-planaire.
De telles structures sont très courantes en intérieurs comme en extérieurs et le domaine d'application de nos méthodes est donc assez large.

Nos évaluations expérimentales montrent que les stratégies ici proposées améliorent la précision et la stabilité dans le calcul des paramètres de la caméra et,
par conséquent, la qualité des séquences augmentées.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
3

Potapov, Sergueï. „Un algorithme ALE de dynamique rapide basé sur une approche mixte éléments finis - volumes finis : Implémentation en langage orienté objet C++“. Châtenay-Malabry, Ecole centrale de Paris, 1997. http://www.theses.fr/1997ECAP0534.

Der volle Inhalt der Quelle
Annotation:
Cette thèse propose un algorithme numérique permettant la résolution efficace d'une large gamme de problèmes de la dynamique rapide impliquant de grandes déformations plastiques des matériaux solides, des écoulements des fluides et des problèmes d'interaction forte fluide-structure. Pour uniformiser le traitement numérique des solides et des fluides, l'algorithme s'appuie sur la formulation ALE (Lagrange Euler arbitraire) du mouvement. Le problème ALE a été décomposé en deux phases : une phase lagrangienne (symétrique) et une phase de convection (non symétrique). Une telle décomposition a permis d'écrire les formulations intégrales appropriées à chaque phase : la formulation éléments finis centrée pour la phase lagrangienne et la formulation volumes finis décentrée pour la phase de convection. Pour convecter correctement des variables nodales et élémentaires, deux types de cellule de contrôle ont été utilisés : les cellules Inria pour convecter la quantité de mouvement et les cellules barycentriques pour convecter les variables élémentaires. Cela permet de résoudre proprement le problème de convection et de garantir des résultats corrects quelle que soit la vitesse de convection. Les solutions numériques présentées touchent à d'autres aspects de résolution du problème de dynamique rapide en formulation ALE : l'intégration temporelle avec un pas de temps adaptatif, la prise en compte des conditions initiales et aux limites, la gestion du maillage mobile, le traitement des ondes de choc. L’algorithme proposé a été mis en œuvre informatique en utilisant le langage oriente objet C++ et implémenté dans le prototype 3D du code de calcul de dynamique rapide DYRAC++. L’algorithme a été testé sur des cas-tests ayant les solutions analytiques ou des résultats de référence. L’analyse des résultats montre que l'algorithme permet de traiter avec la même aisance des problèmes hydrodynamiques avec un fluide compressible et des problèmes de la dynamique des solides avec des matériaux non-linéaires.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
4

Hui, Yi. „Development and experimental validation of vibration based damage indicator on a specific twin-wall sandwich structure“. Thesis, Lyon, 2018. http://www.theses.fr/2018LYSEC032.

Der volle Inhalt der Quelle
Annotation:
La surveillance de santé structurale (SHM) a attiré beaucoup d'attention dans de nombreux domaines tels que l'industrie civile, aéronautique, mécanique, etc., car il est important de surveiller l'état de la structure afin d'éviter des défaillances structurelles imprévues. Le processus d'identification des endommagements à quatre niveaux: existence, localisation, sévérité et prédiction de l'évolution des endommagements peut être partiellement réalisé si un propre indicateur est bien choisi. Il existe différents indicateurs d'endommagements dont la gamme d'application de la fréquence s'étend de la réponse vibratoire à basses fréquences aux régimes ultrasoniques dans la gamme méga hertz.Les structures sandwich sont largement utilisées dans diverses applications d'ingénierie en raison de son rapport rigidité / poids exceptionnellement élevé par rapport aux structures monocoques. Dans ce travail, une structure sandwich a été étudiée et des indicateurs basés sur la réponse vibratoire ont été conçus en utilisant ses caractéristiques de directivité de propagation et d'amortissement relativement élevé de la structure. Des investigations numériques sur différents scénarios d'endommagement (càd, différents types d'endommagement et leurs combinaisons) et une discussion associée sur la plage d'application ont d'abord été effectuées. La configuration expérimentale a été facilement réalisée à l'aide d'un vibromètre laser à balayage Doppler (SLDV). L'endommagement a été détecté avec succès par les indicateurs proposés
Structural health monitoring (SHM) has attracted much attention in many engineering fields like civil, aeronautic, mechanical industry, etc. since it is important to monitor the healthy condition of the operational structure in order to avoid unpredicted structural failure which may have severe consequences. The four-level damage identification process: existence, localization, severity and prediction of damage evolution, can be partly realized if a suitable indicator is chosen. It exists different damage indicators whose application range of frequency spans from vibrational response at low frequencies to the ultrasonic regimes in the mega hertz range.The sandwich structures are widely used in various engineering applications due to its exceptionally high flexural stiffness-to-weight ratio compared to monocoque structures. In this thesis a specified twin-wall sandwich structure in polypropylene was studied and vibration-based indicators were designed by taking use of its relative high damping and propagation directivity characteristics. Numerical investigations on different damage scenarios (i.e., different types of defect and their combinations) and an associated discussion on the range of application were first carried out. Experimental configuration was easily realized with the help of a scanning laser doppler vibrometer (SLDV). Defect was successfully detected by the proposed indicators
APA, Harvard, Vancouver, ISO und andere Zitierweisen
5

Kheirbek, Ammar. „Modèle d'intégration d'un système de recherche d'informations et d'un système hypermédia basé sur le formalisme des graphes conceptuels“. Université Joseph Fourier (Grenoble), 1995. http://www.theses.fr/1995GRE10045.

Der volle Inhalt der Quelle
Annotation:
Le but de notre travail est de définir un modèle de recherche d'informations, intégrant les deux modes d'accès que sont la formulation de requêtes (approche systèmes de recherche d'information) et la navigation (approche systèmes hypermédia). La motivation de cette étude repose sur la constatation que ces deux approches sont fortement complémentaires, les avantages de l'une compensant largement les limitations de l'autre. Classiquement, les modèles de recherche d'informations et d'hypermédia établissent une distinction entre les aspects structure des informations et les aspects représentation des connaissances. Cette distinction est, d'une part, de nature à limiter les possibilités de ces systèmes, et est un obstacle à l'intégration de ces deux modèles d'autre part. La base de notre approche d'intégration consiste tout d'abord à unifier ces deux types d'informations: une sémantique est attachée aux structures, et cette sémantique doit être explicitée et utilisée dans le processus d'accès à l'information, au même titre que les connaissances attachées au contenu de l'information. La définition formelle proposée du modèle intégré est largement fondée sur le formalisme des graphes conceptuels qui a été retenu pour représenter toutes les connaissances du système et pour réaliser les différentes opérations d'interrogation et de navigation propres aux deux approches. Une conclusion intéressante de cette démarche d'intégration est qu'elle conduit également à améliorer les deux modèles composants, par rapport à l'état de l'art. Une expérimentation du modèle proposé a conduit à la réalisation d'un prototype fondé sur O2 (SGBD Orienté Objet) et l'interface MOSAIC de WWW (World Wide Web), et les tests ont utilisé le corpus du système RIME (Recherche d'Informations MEdicales)
APA, Harvard, Vancouver, ISO und andere Zitierweisen
6

Vigueras, Gómez Javier Flavio. „Système de Réalité Augmentée basé sur l'observation de structures planes : conception et évaluation“. Nancy 1, 2007. http://docnum.univ-lorraine.fr/public/SCD_T_2007_0060_VIGUERAS-GOMEZ.pdf.

Der volle Inhalt der Quelle
Annotation:
La Réalité Augmentée (RA) vise à augmenter la perception du monde réel par des éléments de synthèse. Pour avoir une fusion cohérente, les images augmentées doivent être mises à jour en temps réel en fonction des mouvements de la caméra dans la scène. L'estimation des paramètres de la caméra est souvent affectée par des fluctuations statistiques, ce qui nuit à l'impression visuelle de la scène augmentée. Dans cette thèse, nous nous intéressons à l'étalonnage basé vision des caméras et nous analysons les effets des erreurs de calibrage en situation réelle dans un contexte spécifique à la RA. Nous proposons aussi des stratégies de calibrage dans le cadre d'applications de la RA dans un univers multi-plans. Les surfaces planes sont très courantes en intérieurs comme en extérieurs et le domaine d'application de nos méthodes est donc assez large. Nos contributions à ce sujet concernent : 1) L'estimation des paramètres intrinsèques de la caméra. Nous proposons quelques extensions aux méthodes planaires classiques: une approche multi-plans, la pondération statistique des données d'entrée et des stratégies d'assistance au calibrage. 2) Le calcul séquentiel du point de vue à partir de l'observation de plans. Afin de stabiliser la trajectoire de la caméra, nous classifions les déplacements de la caméra en différents modèles de mouvement, en utilisant des critères de sélection de modèles de complexité adaptée au lieu d'utiliser les critères génériques classiques. Nos évaluations expérimentales montrent que les stratégies proposées améliorent la précision et la stabilité dans le calcul des paramètres de la caméra et, en conséquence, la qualité des séquences augmentées
Augmented Reality (AR) aims to enhance a person's perception of the world by overlaying virtual objects on the real scene. In order to maintain a coherent appearance, augmented images must be updated in real time according to the camera movements into the scene. Camera parameter estimation is often affected by statistical fluctuations, which harms the visual impression of the augmented scene. In this thesis, we concentrate on vision-based camera calibration and we analyse the effects of calibration errors in practical situations in the context of AR. We also propose some calibration techniques for AR applications into planar piece-wise environments. Planar surfaces are quite common both in indoor and outdoor scenes and the applicability of our methods is thus rather broad. Our contributions on this subject concern : 1) Intrinsic camera calibration. We propose some improvements to known planar methods: a multi-planar approach, a statistical weighting of the input data, and some strategies to assist on-the-fly camera calibration. 2) Sequential camera tracking based on planar structures. In order to improve the stability of the camera viewpoint computation, we classify camera movements into motion models by using model selection criteria of adaptive complexity instead of using classical all-purpose criteria. Experimental assessment showed that the strategies we suggest in our work improve the accuracy and stability in camera parameter computation and hence the quality of the augmented images
APA, Harvard, Vancouver, ISO und andere Zitierweisen
7

Frappier, Vincent. „Développement, validation et nouvelles applications d’un modèle d’analyse des modes normaux basé sur la séquence et la structure de protéines“. Thèse, Université de Sherbrooke, 2016. http://hdl.handle.net/11143/9468.

Der volle Inhalt der Quelle
Annotation:
Les protéines existent sous différents états fonctionnels régulés de façon précise par leur environnement afin de maintenir l‘homéostasie de la cellule et de l‘organisme vivant. La prévalence de ces états protéiques est dictée par leur énergie libre de Gibbs alors que la vitesse de transition entre ces états biologiquement pertinents est déterminée par le paysage d‘énergie libre. Ces paramètres sont particulièrement intéressants dans un contexte thérapeutique et biotechnologique, où leur perturbation par la modulation de la séquence protéique par des mutations affecte leur fonction. Bien que des nouvelles approches expérimentales permettent d‘étudier l‘effet de mutations en haut débit pour une protéine, ces méthodes sont laborieuses et ne couvrent qu‘une fraction de l‘ensemble des structures primaires d‘intérêt. L‘utilisation de modèles bio-informatiques permet de tester et générer in silico différentes hypothèses afin d‘orienter les approches expérimentales. Cependant, ces méthodes basées sur la structure se concentrent principalement sur la prédiction de l‘enthalpie d‘un état, alors que plusieurs évidences expérimentales ont démontré l‘importance de la contribution de l‘entropie. De plus, ces approches ignorent l‘importance de l‘espace conformationnel protéique dicté par le paysage énergétique cruciale à son fonctionnement. Une analyse des modes normaux peut être effectuée afin d‘explorer cet espace par l‘approximation que la protéine est dans une conformation d‘équilibre où chaque acide aminé est représenté par une masse régie par un potentiel harmonique. Les approches actuelles ignorent l‘identité des résidus et ne peuvent prédire l‘effet de mutations sur les propriétés dynamiques. Nous avons développé un nouveau modèle appelé ENCoM qui pallie à cette lacune en intégrant de l‘information physique et spécifique sur les contacts entre les atomes des chaînes latérales. Cet ajout permet une meilleure description de changements conformationnels d‘enzymes, la prédiction de l‘effet d‘une mutation allostérique dans la protéine DHFR et également la prédiction de l‘effet de mutations sur la stabilité protéique par une valeur entropique. Comparativement à des approches spécifiquement développées pour cette application, ENCoM est plus constant et prédit mieux l‘effet de mutations stabilisantes. Notre approche a également été en mesure de capturer la pression évolutive qui confère aux protéines d‘organismes thermophiles une thermorésistance accrue.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
8

Da, Silva Rodrigues Bruno. „Conception et mise en œuvre d'un système matricielle de mesure du pH basé sur une structure FET à grille suspendue“. Rennes 1, 2011. http://www.theses.fr/2011REN1S154.

Der volle Inhalt der Quelle
Annotation:
La mesure du pH par des dispositifs microélectroniques intégrés a été développée avec l'apparition des dispositifs de type ISFET (Ion Sensitive Field Effect Transistor). Ces dispositifs sont limités par la loi de Nernst à des sensibilités de 60mV/pH. Le développement des micro-technologies a permis depuis, la réalisation de capteurs de type SGFET (Suspended Gate Field Effect Transistor). Ces structures réalisées par micro-usinage de surface et procédés MOS classique permettent d'atteindre des sensibilités bien plus élevées. Après un rappel des différentes méthodes de mesure du pH et leurs principes de base, le document décrit les procédés de fabrication microélectronique des capteurs SGFET. Puis ce travail présente la conception et la mise en oeuvre d'un système automatique de mesure du pH. Ce système est basé sur des capteurs SGFET disposés sous forme de matrice. Le document expose tout d'abord les différentes options de polarisation des capteurs puis dans une seconde partie développe l'architecture du système de mesure ainsi que des premiers résultats matriciels. Le protocole de mesure présentant le plus d'avantages s'avère ici être l'echantillonnage durant quelques secondes du courant de drain à tensions de grille et de drain constantes. Cette méthode a ainsi permis d'atteindre une reproductibilité dans la sensibilité au pH et une fiabilité dans le temps qui a pu aboutir à la réalisation de mesures sur un temps très long, de l'ordre de 150 heures. La conception d'un système d'adressage et de mesure automatisé a quant à lui permis de profiter de l'apsect matriciel des capteurs pour opérer un traitement statistique des mesures et ainsi proposer un système pleinement opérationnel
PH measurement by integrated microelectronic devices has been developed with the advent of devices like ISFET ( Ion Sensitive Field Effect Transistor). These devices are limited by Nernst law at 60mV/pH of sensitivity. With the development of micro-technology, the production of sensors like SGFET (Suspended Gate Field Effect Transistor) became possible. These structures, realized by surface micromachining and conventional MOS processes, can achieve much higher sensitivity. After a review of different methods of measuring pH and their basic principles, the document describes the manufacturing processes of microelectronics sensors SGFET. Then this work deals with the design and implementation of an automated measurement of pH system. This system is based on sensors SGFET arranged in a matrix. This manuscript presents firstly the various options of sensors bias and in a second part, it develops the system architecture. Finally, first results on matrix are presented. Thus the best measurement protocol to ensure reliability and good sensitivity here is a few seconds duration sampling of the drain current with constant gate voltage and drain voltage. This method has achieved reproducibility in the pH sensitivity and reliability over time that could even lead to measures during a long time on the order of 150 hours. The design of an addressing and automated measurement systeme allowed to take advantage of this matrix aspect by making statistical treatment of measurements leading then to a fully operational system
APA, Harvard, Vancouver, ISO und andere Zitierweisen
9

El, Maani Rabii. „Étude basée sur l’optimisation fiabiliste en aérodynamique“. Thesis, Rouen, INSA, 2016. http://www.theses.fr/2016ISAM0017/document.

Der volle Inhalt der Quelle
Annotation:
Le domaine de l'interaction fluide-structure regroupe l'étude de tous les phénomènes présentant le couplage du mouvement d'une structure avec celui d'un fluide. La gamme des phénomènes étudiés est très étendue, allant de l'étude de cylindres vibrants dans des écoulements comme c'est le cas dans l'industrie nucléaire, à des structures vibrantes dans des écoulements turbulents, en passant par des phénomènes de surface libre dans des réservoirs. Cependant, la complexité des phénomènes étudiés se répercute par des coûts de calculs prohibitifs, ce qui nous amène à rechercher des modèles réduits dont le temps de calcul serait plus réaliste. Dans cette thèse, on va présenter les différents modèles d'interaction fluide-structure et on va mettre en avant le modèle adopté dans notre étude. La réduction du modèle ainsi que l'optimisation des structures vont être introduites dans un contexte de couplage. En introduisant les incertitudes, l'étude fiabiliste de même qu'une approche d'optimisation basée fiabilité vont être proposées. Les différentes méthodologies adoptées vont être validées numériquement et comparées expérimentalement
The domain of the fluid-structure interaction includes the study of all phenomena presenting the coupling of the motion of a structure with the one of a fluid. The range of the phenomena being studied is very extensive, going from the study of vibrating cylinders in the flow as is the case in the nuclear industry, to vibrating structures in turbulent flows, through the free surface phenomena in reservoirs. However, the complexity of the phenomena studied is reflected by the cost of the prohibitive calculations, which leads us to look for models with the computation time would be more realistic. In this thesis, we will present different models of fluid-structure interaction and we will put forward the model adopted in our study. Reducing the model as well as the optimization of the structures will be introduced into a coupling setting. By introducing uncertainties, the reliability study as well as an optimization based reliability approach will be proposed. The different methodologies adopted will be validated numerically and experimentally compared
APA, Harvard, Vancouver, ISO und andere Zitierweisen
10

Eiche, Antoine. „Ordonnancement temps réel pour architectures hétérogènes reconfigurables basé sur des structures de réseaux de neurones“. Phd thesis, Université Rennes 1, 2012. http://tel.archives-ouvertes.fr/tel-00783893.

Der volle Inhalt der Quelle
Annotation:
L' evolution constante des applications, que ce soit en complexit e ou en besoin de performances, impose le d eveloppement de nouvelles architectures. Parmi l'ensemble des architectures propos ees se d emarquent les architectures recon gurables. Ce type d'architectures o re des performances proches d'un circuit d edi e tout en proposant davantage de exibilit e. Si originellement ces architectures ne pouvaient ^etre con gur ees qu' a leur d emarrage, elles sont d esormais con gurables partiellement a tout moment. Cette fonctionnalit e, nomm ee " recon guration dynamique ", permet de multiplexer temporellement et spatialement l'ex ecution de plusieurs applications, rapprochant ainsi l'utilisation des architectures recon gurables de celle d'un processeur g en eraliste. A l'instar des ordinateurs pourvus d'un processeur g en eraliste, il s'av ere donc n ecessaire de disposer d'un syst eme d'exploitation pour architectures recon gurables. Cette th ese se focalise sur la cr eation d'ordonnanceurs destin es a ce type d'architectures. Parce que nous ciblons l'ex ecution d'applications complexes - compos ees de plusieurs t^aches dont l'ordre d'ex ecution n'est pas connu a l'avance - les algorithmes d'ordonnancement doivent ^etre ex ecut es en ligne et les solutions obtenues en des temps tr es brefs. A cette n, nous r ealisons nos algorithmes d'ordonnancement en nous basant sur des r eseaux de neurones de Hop eld. Ce type de r eseaux a et e utilis e pour r esoudre des probl emes d'optimisations (tels que des probl emes d'ordonnancement) o u il a et e constat e qu'ils produisaient des solutions rapidement. De plus, leur simplicit e de fonctionnement (peu de structures de contr^ole) permet de les impl ementer e cacement sur des architectures recon gurables de type FPGA. Le premier chapitre de ce document introduit les concepts sur lesquels sont bas es nos travaux, a savoir, les architectures recon gurables ainsi que l'ordonnancement temporel et spatial destin e a ce type d'architectures. Le second chapitre pr esente les r eseaux de neurones de Hop eld. Dans le troisi eme chapitre, nous pr esentons un ordonnanceur temporel pour architectures h et erog enes recon gurables. Le quatri eme chapitre pr esente deux ordonnanceurs spatiaux, fond es sur des hypoth eses mat erielles di erentes. Le premier, bas e sur un r eseau de Hop eld, ne requiert que des m ecanismes de recon guration simples et est donc utilisable avec les outils fournis par les fabricants. Le second, quant a lui, n ecessite des m ecanismes actuellement non fournis par les fabricants, mais permet d'exploiter plus nement l'architecture. Le dernier chapitre pr esente des travaux relatifs aux r eseaux de neurones de Hop eld, a savoir l' evaluation parall ele de neurones, ainsi que des propri et es de tol erance aux fautes de ces r eseaux.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
11

Pierrefeu, Amicie de. „Apprentissage automatique avec parcimonie structurée : application au phénotypage basé sur la neuroimagerie pour la schizophrénie“. Thesis, Université Paris-Saclay (ComUE), 2018. http://www.theses.fr/2018SACLS329/document.

Der volle Inhalt der Quelle
Annotation:
La schizophrénie est un trouble mental, chronique et invalidant caractérisé par divers symptômes tels que des hallucinations, des épisodes délirants ainsi que des déficiences dans les fonctions cognitives. Au fil des ans, l'Imagerie par Résonance Magnétique (IRM) a été de plus en plus utilisée pour mieux comprendre les anomalies structurelles et fonctionnelles inhérentes à ce trouble. Les progrès récents en apprentissage automatique et l'apparition de larges bases de données ouvrent maintenant la voie vers la découverte de biomarqueurs pour le diagnostic/ pronostic assisté par ordinateur. Compte tenu des limitations des algorithmes actuels à produire des signatures prédictives stables et interprétables, nous avons prolongé les approches classiques de régularisation avec des contraintes structurelles provenant de la structure spatiale du cerveau afin de: forcer la solution à adhérer aux hypothèses biologiques, produisant des solutions interprétables et plausibles. De telles contraintes structurelles ont été utilisées pour d'abord identifier une signature neuroanatomique de la schizophrénie et ensuite une signature fonctionnelle des hallucinations chez les patients atteints de schizophrénie
Schizophrenia is a disabling chronic mental disorder characterized by various symptoms such as hallucinations, delusions as well as impairments in high-order cognitive functions. Over the years, Magnetic Resonance Imaging (MRI) has been increasingly used to gain insights on the structural and functional abnormalities inherent to the disorder. Recent progress in machine learning together with the availability of large datasets now pave the way to capture complex relationships to make inferences at an individual level in the perspective of computer-aided diagnosis/prognosis or biomarkers discovery. Given the limitations of state-of-the-art sparse algorithms to produce stable and interpretable predictive signatures, we have pushed forward the regularization approaches extending classical algorithms with structural constraints issued from the known biological structure (spatial structure of the brain) in order to force the solution to adhere to biological priors, producing more plausible interpretable solutions. Such structured sparsity constraints have been leveraged to identify first, a neuroanatomical signature of schizophrenia and second a neuroimaging functional signature of hallucinations in patients with schizophrenia. Additionally, we also extended the popular PCA (Principal Component Analysis) with spatial regularization to identify interpretable patterns of the neuroimaging variability in either functional or anatomical meshes of the cortical surface
APA, Harvard, Vancouver, ISO und andere Zitierweisen
12

Sall, Ousmane. „Contribution à la modélisation de données multi-sources de type DATAWEB basé sur XML“. Littoral, 2010. http://www.theses.fr/2010DUNK0284.

Der volle Inhalt der Quelle
Annotation:
Des données de nature environnementale sur la vallée du fleuve Sénégal ont collectées depuis de nombreuses années à partir des activités des différents experts y intervenant. Ces données de nature spatio-temporelle, présentent certaines particularités sémantiques et structurelles selon les partenaires. Des moyens de collecte et de stockage divers sont utilisés, induisant ainsi pour les données une dimension structurelle de l’hétérogénéité à laquelle est apparentée une dimension sémantique liée à leur description. Afin de résoudre la problématique de l’hétérogénéité structurelle, nous avons proposé l’introduction d’une phase préalable de pré-intégration par une représentation de l’ensemble des données partenaires sous XML, constituant ainsi un entrepôt de documents XML dit ici Dataweb. Nous utilisons ensuite le vocabulaire contrôlé décrivant les données de chaque partenaire et la réutilisation d’une ontologie du domaine comme un support pour la construction d’une base de connaissances. Cette base est alors générée partir du dataweb partenaire constituant ainsi un dataweb sémantique. Ce dataweb sémantique permet ainsi l’intégration sémantique et structurelle des données de chaque partenaire. Pour l’intégration entre les différents dataweb sémantiques nous exploitons les travaux développés sur les systèmes à base de hubs en définissant une ontologie avec les concepts que chaque partenaire désire partager et à partir desquels nous constituons une ontologie globale
Environmental data in the Senegal River Valley have been collected for many years from the activities of the various experts and organisms involved therein. These spatio-temporal data display certain specific semantic and structural features depending on the owners. Various systems have been used for the collection and storage of the data, thus, conferring them a structural dimension of heterogeneity, to which a semantic dimension related to them description has been attached, with a proper vocabulary controlled within every organism or expert. In this context, we perform an integration in three phases. First, a structural integration phase, based on the use of XML documents warehouses (called dataweb), allows us to create a warehouse for each agency involved in the project. A second step is to make the integration of these XML documents warehouses by associating a knowledge-base to each warehouse thus constituting semantic dataweb. That is done by an automatic building of OWL ontology starting from XML dataweb and by re-use of the Agricultural Ontology Service. A third mediation phase permits to query in a uniform manner the different semantic dataweb via a web application
APA, Harvard, Vancouver, ISO und andere Zitierweisen
13

Servant, F. „Localisation et cartographie simultanées en vision monoculaire et en temps réel basé sur les structures planes“. Phd thesis, Université Rennes 1, 2009. http://tel.archives-ouvertes.fr/tel-00844909.

Der volle Inhalt der Quelle
Annotation:
Le travail présenté dans ce manuscrit se situe dans le domaine de la réalité augmen- tée. Dans le contexte de la réalité augmentée, il est nécessaire de calculer la position relative entre la caméra et la scène en temps réel. Cette thèse présente une méthode complète de calcul de pose reposant sur l'utilisation de structures planes présentes dans les environnements urbains intérieurs et extérieurs. Le suivi de pose est effectué à l'aide d'une caméra bas coût et d'un capteur inertiel. Notre approche consiste à tirer parti des plans pour faciliter le calcul de la pose. Les homographies obtenues par un algorithme de suivi dans l'image de régions planes, présenté dans cette thèse, servent de mesures à notre méthode de localisation et car- tographie simultanées. Cette méthode de SLAM permet d'assurer un suivi de la pose robuste tout en permettant une reconstruction de la scène 3D et fonctionnant sur le long terme en propageant les incertitudes des mesures. Des travaux sur la sélection des régions à suivre et sur l'initialisation des paramètres des plans, correspondant à ces régions, sont également présentés. Des expériences en simulation et sur des séquences d'images réelles montrent la validité de notre approche.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
14

Urbain, Loi͏̈c. „Analyse structurée d'un contrôleur temps réel de robot basé sur une génération en ligne des trajectoires“. Toulouse, INSA, 1996. http://www.theses.fr/1996ISAT0002.

Der volle Inhalt der Quelle
Annotation:
Afin de repondre a un besoin de robotique de manipulation fortement contraint, la societe sinters a du, dans les annees 90, acquerir la maitrise de la structure de controle des bras manipulateurs basee sur une generation en ligne des trajectoires. Ce memoire presente la synthese des travaux effectues sur ce sujet. Deux aspects sont notamment precisees: une analyse des generateurs de trajectoires montre que la technique de generation par mise en sequence de motifs elementaires constitue actuellement le moyen le plus adapte pour generer en ligne les trajectoires de robots. La methode sart presentee ensuite et empruntee au genie logiciel constitue une alternative interessante pour specifier les systemes temps reel tels que les controleurs de robots. Appliquee a la structure a trois niveaux hierarchiques proposee (asservissement des axes, generation de la trajectoire, planification de la trajectoire), elle nous permet d'obtenir un modele coherent directement utilisable pour concevoir le systeme. Les performances du controleur presentees a la fin du memoire montre la reactivite et l'amelioration de l'autonomie de la structure ainsi realisee
APA, Harvard, Vancouver, ISO und andere Zitierweisen
15

Servant, Fabien. „Localisation et cartographie simultanées en vision monoculaire et en temps réel basé sur les structures planes“. Rennes 1, 2009. ftp://ftp.irisa.fr/techreports/theses/2009/servant.pdf.

Der volle Inhalt der Quelle
Annotation:
Le travail présenté dans ce manuscrit se situe dans le domaine de la réalité augmentée. Dans le contexte de la réalité augmentée, il est nécessaire de calculer la position relative entre la caméra et la scène en temps réel. Cette thèse présente une méthode complète de calcul de pose reposant sur l'utilisation de structures planes présentes dans les environnements urbains intérieurs et extérieurs. Le suivi de pose est effectué à l'aide d'une caméra bas coût et d'un capteur inertiel. Notre approche consiste à tirer parti des plans pour faciliter le calcul de la pose. Les homographies obtenues par un algorithme de suivi dans l'image de régions planes, présenté dans cette thèse, servent de mesures à notre méthode de localisation et cartographie simultanées. Cette méthode de SLAM permet d'assurer un suivi de la pose robuste tout en permettant une reconstruction de la scène 3D et fonctionnant sur le long terme en propageant les incertitudes des mesures. Des travaux sur la sélection des régions à suivre et sur l'initialisation des paramètres des plans, correspondant à ces régions, sont également présentés. Des expériences en simulation et sur des séquences d'images réelles montrent la validité de notre approche
Our work deals with computer vision. The problem of augmented reality implies a real time estimation of the relive position between camera and scene. This thesis presents a complete method of pose tracking that works with planar structures which are abundant in indoor and outdoor urban environments. The pose tracking is done using a low cost camera and an inertial sensor. Our approach is to use the planes to make the pose estimation easier. Homographies computed by an image tracking algorithm presented in this document are used as measurements for our Simultaneous Localization And Mapping method. This SLAM method permits a long term and robust pose tracking by propagating the measurements uncertainties. Works about selection of regions to track and their corresponding plane parameters initialization are also described in this thesis. Numerical and image based experiments shows the validity of our approach
APA, Harvard, Vancouver, ISO und andere Zitierweisen
16

Allard, Luc. „Élaboration d'un indice de qualité des eaux basé sur la structure taxonomique et fonctionnelle des assemblages de poissons des petits cours d'eau de Guyane“. Toulouse 3, 2014. http://thesesups.ups-tlse.fr/2960/.

Der volle Inhalt der Quelle
Annotation:
Dans le cadre de l'application de la Directive Cadre Eau européenne, les départements d'outre-mer doivent se munir d'outils de bio indication adaptés à leurs territoires d'ici à 2015, permettant d'évaluer la qualité biologique de leurs eaux. Cette thèse vise à développer un indice biotique basé sur les communautés de poissons des petits cours d'eau de Guyane. Pour cela, un protocole de capture des poissons et de description des habitats, adapté aux conditions locales, a été evalué, et mis en oeuvre durant les phases d'acquisition de données biologiques (2011-2012). Les données collectées sur plus de 150 sites couvrant l'essentiel du territoire Guyanais ont permis de quantifier l'effet des perturbations anthropiques (orpaillage et exploitation forestière) sur les habitats et les assemblages de poissons. Ces résultats ont permis de construire un indice multi-métrique préliminaire adapté au territoire guyanais et à sa faune ichthyologique
According Water Framework Directive, European oversea regions should develop water quality assessment bio-indication tools until 2015. This Phd aims to develop such a Fish-based index for French Guianese streams. Fish sampling and habitat description protocol were developped and tested, and subsequently used during data sampling phases in 2011 and 2012. Data was collected on more than 150 sites encompassing the entire French Guiana territory, and permitted to quantify the impact of anthropogenic disturbances (illegal gold mining and reduced impact logging) on fish assemblages and physical habitats. Those results were then used to build up preliminary Fish-based index for French Guianese streams
APA, Harvard, Vancouver, ISO und andere Zitierweisen
17

Poirier, Yohan. „Contribution à l'accélération d'un code de calcul des interactions vagues/structures basé sur la théorie potentielle instationnaire des écoulements à surface libre“. Electronic Thesis or Diss., Ecole centrale de Nantes, 2023. http://www.theses.fr/2023ECDN0042.

Der volle Inhalt der Quelle
Annotation:
De nombreuses méthodes numériques ont été développées pour modéliser et étudier les interactions entre les vagues et les structures. Les plus couramment utilisées sont celles basées sur la théorie potentielle des écoulements à surface libre.Dans l'approche Weak-Scatterer, conditions aux limites de surface libre sont linéarisées par rapport à la position de la houle incidente, ainsi les perturbations sur la houle doivent être de faibles amplitudes en comparaison de la houle incidente, mais aucune hypothèse n'est faite sur le mouvement des corps et sur l'amplitude de la houle incidente ; augmentant ainsi le champ d'application. Lorsque cette approche est couplée à une méthode des éléments de frontière, il est nécessaire à chaque itération temporelle, de construire et résoudre un système linéaire dense. La complexité spatiale importante de ces étapes limite l'utilisation de cette méthode à des systèmes de relativement faibles dimensions. Ce travail de thèse vise à réduire cette contrainte via la mise en oeuvre de méthodes d’accélération des calculs. On montre que l'utilisation de la méthode multipolaire permet de réduire la complexité spatiale en temps et en espace mémoire associées à la résolution du système linéaire rendant possible l'étude de système de plus grandes dimensions. Plusieurs méthodes de préconditionnement ont été étudiées de façon à réduire le nombre d'itérations nécessaires à la recherche de la solution du système par un solveur itératif.Au contraire de la méthode multiplaire rapide, la méthode de parallélisation en temps Parareal permet, en principe, d’accélérer l’ensemble de la simulation. On montre qu’elle permet d’accélérer les temps de calcul dans le cas de flotteurs fixes et libres dans la houle, mais que le facteur d’accélération décroit rapidement avec la cambrure de la houle
Numerous numerical methods have been developed to model and study the interactions between waves and structures. The most commonly used are those based on potential free-surface flow theory. In the Weak-Scatterer approach, the free-surface boundary conditions are linearized with respect to the position of the incident wave, so the disturbances on the wave must be of low amplitude compared to the incident wave, but no assumptions are made about the motion of the bodies and the amplitude of the incident wave, thus increasing the scope of application. When this approach is coupled with a boundary element method, it is necessary to construct and solve a dense linear system at each time iteration. The high spatial complexity of these steps limits the use of this method to relatively small systems. This thesis aims to reduce this constraint by implementing methods for accelerating calculations. It is shown that the use of the multipole method reduces the spatial complexity in time and memory space associated with solving the linear system, making it possible to study larger systems. Several preconditioning methods have been studied in order to reduce the number of iterations required to find the solution to the system using an iterative solver. In contrast to the fast multiparallelization method, the Parareal time parallelization method can, in principle, accelerate the entire simulation. We show that it speeds up calculation times in the case of fixed floats free in the swell, but that the acceleration factor decreases rapidly with the camber of the swell
APA, Harvard, Vancouver, ISO und andere Zitierweisen
18

Vincent, Hugues. „Développement d'un modèle de calcul de la capacité ultime d'éléments de structure (3D) en béton armé, basé sur la théorie du calcul à la rupture“. Thesis, Paris Est, 2018. http://www.theses.fr/2018PESC1038/document.

Der volle Inhalt der Quelle
Annotation:
Pour l’évaluation de la résistance ultime des ouvrages l’ingénieur de génie civil fait appel à différentes méthodes plus ou moins empiriques, dont de nombreuses manuelles, du fait de la lourdeur excessive des méthodes par éléments finis non-linéaires mises en œuvre dans les logiciels de calcul à sa disposition. Le calcul à la rupture, théorisé par J. Salençon, indique la voie de méthodes rigoureuses, tout à fait adaptées à cette problématique, mais dont la mise en œuvre systématique dans un logiciel a longtemps buté sur l’absence de méthodes numériques efficaces. Ce verrou de mathématique numérique a été levé récemment (Algorithme de point intérieur).Dans ce contexte l’objectif de la présente thèse est de mettre au point les méthodes permettant d’analyser, au moyen du calcul à la rupture, la capacité ultime d’éléments en béton armé tridimensionnels. Les deux approches du calcul à la rupture, que sont les approches statique et cinématiques, seront mises en œuvre numériquement sous la forme d’un problème d’optimisation résolu à l’aide d’un solveur mathématique dans le cadre de la programmation semi définie positive (SDP).Une large partie du travail sera consacré à la modélisation des différents matériaux constituant le béton armé. Le choix du critère pour modéliser la résistance du béton sera discuté, tout comme la méthode pour prendre en compte le renforcement. La méthode d’homogénéisation sera utilisée dans le cas de renforcement périodique et une adaptation de cette méthode sera utilisée dans le cas de renforts isolés. Enfin, les capacités et le potentiel de l’outil développé et mis en œuvre au cours de cette thèse seront exposés au travers d’exemples d’application sur des structures massives
To evaluate the load bearing capacity of structures, civil engineers often make use of empirical methods, which are often manuals, instead of nonlinear finite element methods available in existing civil engineering softwares, which are long to process and difficult to handle. Yield design (or limit analysis) approach, formalized by J. Salençon, is a rigorous method to evaluate the capacity of structures and can be used to answer the question of structural failure. It was, yet, not possible to take advantage of these theoretical methods due to the lack of efficient numerical methods. Recent progress in this field and notably in interior point algorithms allows one to rethink this opportunity. Therefore, the main objective of this thesis is to develop a numerical model, based on the yield design approach, to evaluate the ultimate capacity of massive (3D) reinforced concrete structural elements. Both static and kinematic approaches are implemented and expressed as an optimization problem that can be solved by a mathematical optimization solver in the framework of Semi-Definite Programming (SDP).A large part of this work is on modelling the resistance of the different components of the reinforced concrete composite material. The modelling assumptions taken to model the resistance of concrete are discussed. And the method used to model reinforcement is also questioned. The homogenization method is used to model periodic reinforcement and an adaptation of this technique is developed for isolated rebars. To conclude this work, a last part is dedicated to illustrate the power and potentialities of the numerical tool developed during this PhD thesis through various examples of massive structures
APA, Harvard, Vancouver, ISO und andere Zitierweisen
19

Charoy, François. „Construction modulaire d'ateliers logiciels sur une structure d'accueil a objets“. Nancy 1, 1992. http://www.theses.fr/1992NAN10173.

Der volle Inhalt der Quelle
Annotation:
Cette thèse s'intéresse à la construction d'environnements de développement et plus particulièrement à la définition des services nécessaires à cette construction. Son objectif est de montrer qu'il est possible de construire des environnements économiques par composition de constituants basés sur la description des objets participant à ce développement. La première partie de la thèse est consacrée à l'étude des besoins pour la gestion des objets du développement et à la confrontation de ces besoins avec les systèmes existants (sgf, sgbd, pcte, cais). La seconde partie est une proposition d'un modèle et de mécanismes devant permettre la construction progressive et incrémentale d'environnements, basée sur le modèle de pcte. Ce modèle permet la construction de composants d'environnements basés sur la description de leurs objets et des opérations de manipulation de ces objets. Les mécanismes associés permettent la fusion, l'intégration et l'évolution de ces composants pour assurer la construction progressive d'environnements. La dernière partie fait le bilan de cette expérience en montrant comment l'objectif initial a été atteint
APA, Harvard, Vancouver, ISO und andere Zitierweisen
20

Abou, Assali Amjad. „Acquisition des connaissances d'adaptation et traitement de l'hétérogénéité dans un système de RàPC basé sur une ontologie“. Compiègne, 2010. http://www.theses.fr/2010COMP1876.

Der volle Inhalt der Quelle
Annotation:
Ce mémoire porte sur la conception d'un système de raisonnement à partir de cas (RàPC) destiné aux problèmes de classification. Notre travail est appliqué actuellement au diagnostic de la défaillance de détecteurs de gaz mis en place sur des sites industriels. Nous nous intéressons principalement à deux aspects du RàPC : le premier concerne l'adaptation qui est une étape clé du cycle de RàPC. Cette étape permet de produire des solutions pour de nouveaux problèmes en réutilisant les solutions de problèmes déjà rencontrés. L'adaptation constitue un grand enjeu pour les systèmes de RàPC car elle nécessite des connaissances spécifiques au domaine qui sont généralement difficiles à acquérir. Le deuxième aspect concerne le traitement des cas hétérogènes qui soulève des problèmes à différents niveaux, notamment pour l'acquisition des connaissances d'adaptation et la remémoration de cas. Nous présentons notre approche d'acquisition des connaissances d'adaptation à partir de la base de cas, qui est une approche semi-automatique s'appuyant sur les techniques de l'analyse de concepts formels. Les connaissances acquises peuvent être ensuite affinées par l'utilisateur durant les sessions de résolution de problèmes. Nous présentons également notre approche d'alignement de cas pour traiter les problèmes liés à l'hétérogénéité. L'alignement de cas a pour objectif de trouver les correspondances entre les attributs des cas comparés. Nous distinguons l'alignement basé sur la similarité entre les attributs, et l'alignement basé sur les rôles des attributs. Notre travail a conduit au développement de COBRA, une plate-forme pour la construction de systèmes de RàPC basés sur une ontologie
This thesis is about the design of a case-based reasoning (CBR) system for classification problems. Our work is currently applied to the diagnosis of the failure of gas sensors set up at industrial sites. We are mainly interested in two CBR aspects: the first concerns the adaptation, which is a key phase in the CBR cycle. This phase aims at producing solutions to new problems by reusing solutions to problems already solved. Adaptation is considered as the bottleneck of CBR systems because it requires domain-specific knowledge which is generally difficult to acquire. The second aspect concerns the treatment of cases heterogeneity that leads to problems at different levels, especially during the acquisition of adaptation knowledge and the retrieval phase. In this thesis, we present our semi-automatic approach to acquire adaptation knowledge from a case base. This approach relies on the techniques of Formai Concept Analysis (FCA). The acquired knowledge can then be refined by users during problem solving sessions. We present also our case alignment approach to treat the problems related to heterogeneity. Case alignment aims to identify the mappings between the attributes of compared cases. We distinguish an alignment based on the similarity between attributes, and an alignment based on the yoles of attributes. Our work has led to the development of COBRA, a platform allowing to construct ontology-based CBR systems
APA, Harvard, Vancouver, ISO und andere Zitierweisen
21

Tetley, Romain. „Analyse mixte de protéines basée sur la séquence et la structure - applications à l'annotation fonctionnelle“. Thesis, Université Côte d'Azur (ComUE), 2018. http://www.theses.fr/2018AZUR4111/document.

Der volle Inhalt der Quelle
Annotation:
Dans cette thèse, l'emphase est mise sur la réconciliation de l'analyse de structure et de séquence pour les protéines. L'analyse de séquence brille lorsqu'il s'agit de comparer des protéines présentant une forte identité de séquence (≤ 30\%) mais laisse à désirer pour identifier des homologues lointains. L'analyse de structure est une alternative intéressante. Cependant, les méthodes de résolution de structures sont coûteuses et complexes - lorsque toutefois elles produisent des résultats. Ces observations rendent évident la nécessité de développer des méthodes hybrides, exploitant l'information extraite des structures disponibles pour l'injecter dans des modèles de séquence. Cette thèse produit quatre contributions principales dans ce domaine. Premièrement, nous présentons une nouvelle distance structurale, le RMSDcomb, basée sur des patterns de conservation structurale locale, les motifs structuraux. Deuxièmement, nous avons développé une méthode pour identifier des motifs structuraux entre deux structures exploitant un bootstrap dépendant de filtrations. Notre approche n'est pas un compétiteur direct des aligneurs flexibles mais permet plutôt de produire des analyses multi-échelles de similarités structurales. Troisièmement, nous exploitons les méthodes suscitées pour construire des modèles de Markov cachés hybrides biaisés vers des régions mieux conservées structurellement. Nous utilisons un tel modèle pour caractériser les protéines de fusion virales de classe II, une tâche particulièrement ardue du fait de leur faible identité de séquence et leur conservation structurale moyenne. Ce faisant, nous parvenons à trouver un certain nombre d'homologues distants connues des protéines virales, notamment chez la Drosophile. Enfin, en formalisant un sous-problème rencontré lors de la comparaison de filtrations, nous présentons un nouveau problème théorique - le D-family matching - sur lequel nous démontrons des résultats algorithmiques variés. Nous montrons - d'une façon analogue à la comparaison de régions de deux conformations d'une protéine - comment exploiter ce modèle théorique pour comparer deux clusterings d'un même jeu de données
In this thesis, the focus is set on reconciling the realms of structure and sequence for protein analysis. Sequence analysis tools shine when faced with proteins presenting high sequence identity (≤ 30\%), but are lack - luster when it comes to remote homolog detection. Structural analysis tools present an interesting alternative, but solving structures - when at all possible- is a tedious and expensive process. These observations make the need for hybrid methods - which inject information obtained from available structures in a sequence model - quite clear. This thesis makes four main contributions toward this goal. First we present a novel structural measure, the RMSDcomb, based on local structural conservation patterns - the so called structural motifs. Second, we developed a method to identify structural motifs between two structures using a bootstrap method which relies on filtrations. Our approach is not a direct competitor to flexible aligners but can provide useful to perform a multiscale analysis of structural similarities. Third, we build upon the previous methods to design hybrid Hidden Markov Models which are biased towards regions of increased structural conservation between sets of proteins. We test this tool on the class II fusion viral proteins - particularly challenging because of their low sequence identity and mild structural homology. We find that we are able to recover known remote homologs of the viral proteins in the Drosophila and other organisms. Finally, formalizing a sub - problem encountered when comparing filtrations, we present a new theoretical problem - the D-family matching - on which we present various algorithmic results. We show - in a manner that is analogous to comparing parts of two protein conformations - how it is possible to compare two clusterings of the same data set using such a theoretical model
APA, Harvard, Vancouver, ISO und andere Zitierweisen
22

Malod-Dognin, Noël. „La comparaison structurale des protéines : de la maximisation du recouvrement de cartes de contacts à l'alignement basé sur les distances“. Phd thesis, Université Rennes 1, 2010. http://tel.archives-ouvertes.fr/tel-00509142.

Der volle Inhalt der Quelle
Annotation:
En biologie structurale, il est couramment admit que la structure tridimensionnelle d'une protéine détermine sa fonction. Ce paradigme permet de supposer que deux protéines possédant des structures tridimensionnelles similaires peuvent partager un ancêtre commun et donc posséder des fonctions similaires. Déterminer la similarité entre deux structures de protéines est une tâche importante qui a été largement étudiée. Parmi toutes les méthodes proposées, nous nous intéressons à la mesure de similarité appelée “maximisation du recouvrement de cartes de contacts” (ou CMO), principalement parce qu'elle fournit des scores de similarité pouvant être utilisés pour obtenir de bonnes classifications automatiques des structures de protéines. Dans cette thèse, la comparaison de deux structures de protéines est modélisée comme une recherche de sous-graphe dans des graphes k-partis spécifiques appelés graphes d'alignements, et nous montrons que cette tâche peut être efficacement réalisée en utilisant des techniques avancées issues de l'optimisation combinatoire. Dans la seconde partie de cette thèse, nous modélisons CMO comme une recherche de sousgraphe maximum induit par les arêtes dans des graphes d'alignements, problème pour lequel nous proposons un solveur exact qui surpasse les autres algorithmes de la littérature. Même si nous avons réussi à accélérer CMO, la procédure d'alignement requière encore trop de temps de calculs pour envisager des comparaisons à grande échelle. La troisième partie de cette thèse est consacrée à l'accélération de CMO en utilisant des connaissances issues de la biologie structurale. Nous proposons une approche hiérarchique pour résoudre CMO qui est basée sur les structures secondaires des protéines. Enfin, bien que CMO soit une très bonne mesure de similarité, les alignements qu'elle fournit possèdent souvent de fortes valeurs de déviation (root mean squared deviation, ou RMSD). Pour palier à cette faiblesse, dans la dernière partie de cette thèse, nous proposons une nouvelle méthode de comparaison de structures de protéines basée sur les distances internes que nous appelons DAST (pour Distance-based Alignment Search Tool). Elle est modélisée comme une recherche de clique maximum dans des graphes d'alignements, pour laquelle nous présentons un solveur dédié montrant de très bonnes performances.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
23

Mouelhi-Chibani, Wiem. „Apprentissage autonome de réseaux de neurones pour le pilotage en temps réel des systèmes de production basé sur l'optimisation via simulation“. Phd thesis, Université Blaise Pascal - Clermont-Ferrand II, 2009. http://tel.archives-ouvertes.fr/tel-00725259.

Der volle Inhalt der Quelle
Annotation:
Le pilotage en temps réel des systèmes de production nécessite de prendre des décisions complexes sur l'affectation des ressources ou le choix des tâches à réaliser. Compte tenu de l'importance de la pertinence des décisions pour la performance d'un atelier, le pilotage fait l'objet de travaux de recherche dont l'objectif est d'aider les preneurs de décision. En particulier, on ne sait pas évaluer les conséquences sur la performance d'une décision en temps réel car les bonnes performances résultent d'une séquence de décisions et non d'une seule. De ce fait, il est difficile d'établir quelle est la meilleure décision à prendre à un instant donné. Plusieurs auteurs ont utilisé la simulation pour apprendre des bonnes pratiques à l'aide d'approches d'apprentissage automatique, mais se sont heurtés à la difficulté d'obtenir des exemples ou des observations sur des décisions en temps réel, où la prise en compte des changements d'états est indispensable pour choisir des stratégies de production. Nous avons réussi à aborder ce problème en proposant une approche d'apprentissage à l'aide de réseaux de neurones, qui ne nécessite pas d'exemples, d'observations ni de connaissances d'experts préalables. Ce type d'apprentissage s'effectue par optimisation via simulation des paramètres du réseau de neurones par rapport à un objectif de performance du système. Il vise à extraire de façon autonome des connaissances sur la meilleure façon de décider d'un modèle de simulation. Nous montrons la faisablité et l'apport de notre approche sur deux exemples inspirés de la littérature
APA, Harvard, Vancouver, ISO und andere Zitierweisen
24

Meimoun, Julie. „Développement de résines thermoplastiques sur base amylacée par copolymérisation“. Thesis, Lille 1, 2017. http://www.theses.fr/2017LIL10128.

Der volle Inhalt der Quelle
Annotation:
L’objectif principal de ce travail de thèse est de modifier chimiquement l’amidon via le greffage de polymères de différentes natures. La finalité est d’obtenir des résines thermoplastiques sur base amylacée pouvant former des films avec des propriétés mécaniques suffisantes pour envisager des applications industrielles. L’étude a été élargie à des dextrines, en supplément de l’amidon natif (fécule), afin de s’affranchir des contraintes de viscosité liées à l’emploi de l’amidon lors des synthèses et d’observer l’influence de la masse molaire du substrat sur l’efficacité de greffage et sur les propriétés structurales, thermiques et mécaniques du produit final isolé. Le greffage de polymères vinyliques sur l’amidon / dextrine par polymérisation radicalaire de l’acrylate de butyle et / ou du styrène a été étudié. Des efficacités de greffage élevées à quantitatives (72 à 98 %) ont été obtenues. Des films ont pu être formés par thermo-compression à partir des copolymères synthétisés dès lors que le pourcentage de greffage est assez élevé (GP > 70 %). Le ratio en monomères permet de moduler les propriétés mécaniques des copolymères greffés étant donné que l’acrylate de butyle permet d’augmenter la déformation tandis que le styrène améliore la contrainte. Enfin, une nouvelle voie de greffage a été développée permettant d’obtenir, après optimisation, des résines thermoplastiques (avec 50 % minimum de matière amylacée) qui présentent des propriétés mécaniques en déformation compétitives par rapport à certains polymères pétrosourcés (polypropylène, polyméthacrylate de butyle). Ces dernières font l’objet d’une demande de brevet
The main objective of this thesis is to modify starch by grafting of polymers of various nature. The final aim of this work is to obtain thermoplastic resins which can form films with interesting mechanical properties to envisage industrial applications. The study was extended to dextrins, in addition to native starch, to avoid the viscosity problems associated with the use of starch during syntheses and to observe the influence of the molar mass of the substrate on the grafting efficiency and on the structural, thermal and mechanical properties of the final product. The grafting of vinyl polymers onto starch / dextrin by radical polymerization of butyl acrylate and / or styrene was studied. Important to quantitative grafting efficiencies (72-98 %) were obtained. Films were formed by thermo-compression when the percentage of grafting is quite high (GP> 70%). The monomers ratio can modulate the mechanical properties of the grafted copolymers. Adding butyl acrylate increases the deformation whereas styrene increases the stress. Then, a new strategie to graft polymers on starch was developed allowing to obtain, after optimization, thermoplastic resins (with a minimum of 50 % starch content) which display competitive mechanical deformation properties compared to oil-based polymers such as polypropylene, poly(butyl methacrylate). These resins are the subject of a patent application
APA, Harvard, Vancouver, ISO und andere Zitierweisen
25

Arizmendi, David. „Simulation numérique par la méthode des éléments finis, de la déformation plastique des cristaux à structure cubique centrée en utilisant un modèle basé sur les mécanismes physiques de la plasticité cristalline“. Paris 13, 1999. http://www.theses.fr/1999PA132052.

Der volle Inhalt der Quelle
Annotation:
Un code de calcul, basé sur la méthode des éléments finis, des grandes transformations élastoviscoplastiques de monocristaux à structure cubique centrée a été développé pour analyser et prédire l'hétérogénéité de la déformation de ces matériaux. L’élasticité anisotrope et les particularités des micro-mécanismes du glissement plastique de la structure (c. C. ) Ont été pris en compte. La loi de comportement utilise une approche similaire à celle proposée par C. Teodosiu et al. Pour la structure c. F. C. . Les variables internes de ce modèle sont les densités de dislocations. La loi d’écoulement est une loi viscoplastique du type loi puissance. L’écrouissage est décrit par une composante thermiquement activée caractéristique de la friction de réseau et par une composante qui représente l’écrouissage forêt. L'objectif de cette étude est : i) la proposition dans le cadre de la mécanique des milieux continus et de la plasticité cristalline d'une loi élastoviscoplastique adaptée aux monocristaux à structure c. C. ; ii) l'identification dans le cas du fer des paramètres du modèle, à partir d'essais expérimentaux recueillis dans la littérature ; iii) la validation de cette loi de comportement, par comparaison entre les données expérimentales obtenues a partir d'un essai de traction uniaxiale in situ à l’intérieur d'un microscope électronique à balayage (m. E. B. ) d'un monocristal de fer et les résultats numériques obtenus par des simulations, utilisant le modèle proposé et identifié, par la méthode des éléments finis de ce même essai mécanique ; iv) l'application de ce modèle, en réalisant des simulations numériques d'essais de traction uniaxiale d’agrégats a petits nombres de grains pour analyser l'influence de la distribution spatiale des orientations sur le comportement global et local et l'influence des grains voisins sur le comportement d'un grain.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
26

Oikonomopoulou, Apostolia. „APPROCHES NUMERIQUES POUR L'ETUDE DU COMPORTEMENT DES STRUCTURES MAÇONNEES ANCIENNES : Un outil basé sur le Calcul à la Rupture et la visualisation graphique“. Phd thesis, Université Paris-Est, 2009. http://tel.archives-ouvertes.fr/tel-00493588.

Der volle Inhalt der Quelle
Annotation:
L'ingénieur et l'architecte, confrontés à la large demande pour la préservation des structures historiques et monumentales, ont besoin d'une approche transdisciplinaire et efficace pour le traitement de ces systèmes complexes. Les travaux de recherche proposés dans cette thèse s'inscrivent à un effort de développement d'un outil informatique servant à une évaluation préliminaire de la stabilité des structures maçonnées anciennes, qui est compréhensible par des utilisateurs travaillant dans diverses disciplines. Etant donné que le comportement statique global de ce type de structures pose plutôt un problème d'équilibre, le théorème statique du Calcul à Rupture est utilisé afin de vérifier la stabilité d'une structure maçonnée sous chargements statiques ou quasi-statiques. La méthode proposée correspond aux systèmes structuraux bidimensionnels ou pseudo-tridimensionnels (symétries axiales) qui comportent les éléments typiques de l'architecture médiévale combinés de façons variables.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
27

Soiron, Sophie. „Influence de la mécanochimie sur les propriétés structurales et catalytiques d'oxydes de structure type-pérovskite et-spinelle“. Amiens, 2001. http://www.theses.fr/2001AMIE0014.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
28

Dau, Frédéric. „Un Elément fini C1 de coque à double courbure basé sur un modèle raffiné pour les problèmes linéaires et non linéaires de structures composites“. Paris, ENSAM, 2004. http://www.theses.fr/2004ENAM0006.

Der volle Inhalt der Quelle
Annotation:
Nous présentons dans ce travail un élément fini C1 de coque à double courbure pour répondre aux exigences actuelles de prédimensionnement des structures coques composites. Dans cet esprit, nous mettons en oeuvre un nouvel élément fini triangulaire, basé sur une méthode conforme:-dont la géométrie est décrite exactement par l'utilisation d'une carte explicite,-basé sur un modèle raffiné permettant de satisfaire la continuité des contraintes de cisaillement transverse aux interfaces et sur les faces libres de la coque et donc, de s'affranchir de l'emploi de coefficients correcteurs, dont les principales qualités : sa simplicité d'utilisation, sa robustesse vis à vis des pathologies numériques classiques, sa capacité à fournir des évaluations précises des déplacements, déformations et contraintes sont mises en évidence au travers de tests numériques de la littérature et au moyen de comparaisons calculs/essais. La dernière partie de ce document est consacrée à la présentation de la plateforme logicielle dans laquelle nous avons effectué toutes les implémentations nécessaires au développement de notre élément fini et à la mise en oeuvre des différents tests numériques proposés
This work deals with a new doubly curved and C1 finite shell element for linear and non linear analysis of multilayered structures. Based on a conforming finite element method, a new triangular finite shell element is developped :-with an exact geometric description using an explicit map,-based on a refined model to satisfy interlayer continuity for both displacements and transverse stresses, and free edges conditions for the shell, avoiding the use of correction factors, and characterized by : its simplicity to be used, its robustness according to classical numerical pathologies like locking, spurious modes and so on, its capability to correctly predict both displacements, strains and stresses. The previous qualities are demonstrated through numerical tests issued from litterature and by comparing numerical and experimental results. The end of this work is devoted to the programming environment used for our finite element developments
APA, Harvard, Vancouver, ISO und andere Zitierweisen
29

Cardona, Jaramillo Luis Ignacio. „Towards a performance based design of shear walls based on damage criteria = Vers un dimensionnement performanciel des murs de refend basé sur des critères d'endommagement“. Thèse, Université de Sherbrooke, 2016. http://hdl.handle.net/11143/8954.

Der volle Inhalt der Quelle
Annotation:
Le dimensionnement basé sur la performance (DBP), dans une approche déterministe, caractérise les objectifs de performance par rapport aux niveaux de performance souhaités. Les objectifs de performance sont alors associés à l'état d'endommagement et au niveau de risque sismique établis. Malgré cette approche rationnelle, son application est encore difficile. De ce fait, des outils fiables pour la capture de l'évolution, de la distribution et de la quantification de l'endommagement sont nécessaires. De plus, tous les phénomènes liés à la non-linéarité (matériaux et déformations) doivent également être pris en considération. Ainsi, cette recherche montre comment la mécanique de l'endommagement pourrait contribuer à résoudre cette problématique avec une adaptation de la théorie du champ de compression modifiée et d'autres théories complémentaires. La formulation proposée adaptée pour des charges monotones, cycliques et de type pushover permet de considérer les effets non linéaires liés au cisaillement couplé avec les mécanismes de flexion et de charge axiale. Cette formulation est spécialement appliquée à l'analyse non linéaire des éléments structuraux en béton soumis aux effets de cisaillement non égligeables. Cette nouvelle approche mise en œuvre dans EfiCoS (programme d'éléments finis basé sur la mécanique de l'endommagement), y compris les critères de modélisation, sont également présentés ici. Des calibrations de cette nouvelle approche en comparant les prédictions avec des données expérimentales ont été réalisées pour les murs de refend en béton armé ainsi que pour des poutres et des piliers de pont où les effets de cisaillement doivent être pris en considération. Cette nouvelle version améliorée du logiciel EFiCoS a démontrée être capable d'évaluer avec précision les paramètres associés à la performance globale tels que les déplacements, la résistance du système, les effets liés à la réponse cyclique et la quantification, l'évolution et la distribution de l'endommagement. Des résultats remarquables ont également été obtenus en référence à la détection appropriée des états limites d'ingénierie tels que la fissuration, les déformations unitaires, l'éclatement de l'enrobage, l'écrasement du noyau, la plastification locale des barres d'armature et la dégradation du système, entre autres. Comme un outil pratique d'application du DBP, des relations entre les indices d'endommagement prédits et les niveaux de performance ont été obtenus et exprimés sous forme de graphiques et de tableaux. Ces graphiques ont été développés en fonction du déplacement relatif et de la ductilité de déplacement. Un tableau particulier a été développé pour relier les états limites d'ingénierie, l'endommagement, le déplacement relatif et les niveaux de performance traditionnels. Les résultats ont démontré une excellente correspondance avec les données expérimentales, faisant de la formulation proposée et de la nouvelle version d'EfiCoS des outils puissants pour l'application de la méthodologie du DBP, dans une approche déterministe.
Abstract : Performance Based Design (PBD) methodology, in a deterministic approach, characterizes the performance objectives in relation to the desired performance levels. Performance objectives are associated with the stated damage condition and the seismic hazard level. Despite this rational approach, its application is still difficult and reliable tools for capturing the evolution, distribution and measuring the damage are indeed required. All phenomena related to nonlinearities (materials and deformations) must also be considered. This research shows how the Damage mechanic could contribute to solving this problematic jointly with an adaptation of the MCFT (Modified Compression Field Theory) formulation and other complementary theories. The proposed formulation, adapted for monotonic, pushover and cyclic loads, allows considering the nonlinear shear-related effects coupled with axial and flexural mechanisms. This formulation is specially addressed to nonlinear analysis of concrete structural elements subjected to non-negligible shear effects. This new approach implemented in EfiCoS (a layered damage mechanic based finite element program), including modeling criteria, is also presented here. Calibrations of this new approach comparing the predictions with experimental data were carried out for concrete shear walls as well as for concrete beams and bridge columns where shear effects have to be considered. This new improved version of software EFiCoS demonstrated to be capable of evaluating accurately the parameters associated with the overall performance, such as displacements, the system strength, the effects related to the cyclic response and the magnitude, evolution and distribution of the damage. Remarkable results were also obtained in reference to the appropriate detection of engineering limit states such as cracking, strains, spalling in cover, crushing, local yielding in bars and system strength degradation, among others. As a very useful application tool for PBD, relationships between the predicted damage indices and the performance levels were obtained and expressed as charts and tables. These charts were derived in terms of the drift and the displacement ductility. A particular table was developed to relate the engineering limit states, the damage, the drift and the traditional performance levels. Results have shown a very good agreement with the experimental data, making the proposed formulation and the new version of EfiCoS a powerful tool for the application of the PBD methodology, in a deterministic approach.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
30

Savary, Géraldine. „Impact de la structure de gels composites à base de polyosides sur la libération d'arôme : exemple des bases de fruits-sur-sucre“. Dijon, 2006. http://www.theses.fr/2006DIJOS033.

Der volle Inhalt der Quelle
Annotation:
Le principal objectif de cette étude est de comprendre la part respective de la structure d’un produit alimentaire et des interactions physicochimiques sur la libération de composés d’arôme. Pour cela, des bases de fruits-sur-sucre ont été choisies comme matrices alimentaires modèles. Dans un premier temps, deux techniques complémentaires ont été mises en œuvre pour caractériser la structure des matrices modèles : la rhéologie et la microscopie confocale. La libération des différentes molécules composant l’arôme de fraise a été étudiée d’un point de vue physicochimique afin de distinguer les différentes étapes qui interviennent lors de la libération des arômes sous différentes conditions. L’ensemble des paramètres thermodynamiques et cinétiques a été utilisé pour interpréter les profils de libération obtenus pour les différents composés d’arôme en conditions statique ou dynamique
The main objective of this study was to understand the respective role of the structure of a food product and of the physicochemical interactions on flavour release. For that purpose, fruit preparations have been chosen as model matrices. In a first step, two complementary tools were used to characterise the structure of the model matrices: rheology and confocal laser scanning microscopy. To investigate flavour release, an instrumental approach has been favoured in order to study separately the kinetic phenomena that can occur during the release in different conditions. The thermodynamic and kinetic parameters have been used to interpret the release profiles obtained for the different aroma molecules in static and dynamic conditions
APA, Harvard, Vancouver, ISO und andere Zitierweisen
31

Zima, Alexis. „Élaboration d’un outil de suivi et d’optimisation du fonctionnement énergétique d’un bâtiment tertiaire basé sur un modèle thermique analytique simplifié“. Thesis, Sorbonne Paris Cité, 2018. http://www.theses.fr/2018USPCC101/document.

Der volle Inhalt der Quelle
Annotation:
Le secteur du bâtiment, responsable de plus de 40% de consommation d’énergie globale et un tiers des émissions de gaz à effet de serre mondial, est un des centres de préoccupations autour des sujets liés au changement climatique et l’indépendance énergétique. Le travail de recherche a exigé l’apport de connaissances supplémentaires et la création d’outils spécifiques orientés sur l’optimisation globale du management énergétique des bâtiments de type tertiaire. Une problématique industrielle est associée à ces enjeux de transitions énergétique et écologique, à savoir le frein observé à la mise en place de plans d’actions de rénovation. En effet, pour des opérations d’optimisation ou de rénovation de petites-moyennes envergures, les coûts initiaux d’études et de métrologie représentent plus de 50% de leur coût global. Cette mise de fonds induit un retour sur investissement très long. Face à ce paramètre financier prohibitif, beaucoup d’entreprises sont réticentes à mettre en place ce type d’action. L’objectif opérationnel a donc été de proposer une solution permettant de réduire drastiquement ces coûts préliminaires.Les aspects abordés dans la thèse sont : l’état de l’art du fonctionnement du bâtiment et des enjeux associés, la création d’un outil de collecte et de remontée des données de fonctionnement et de performance du bâtiment grâce à un réseau de mesure in-situ dédié, concomitant à l’élaboration d’un modèle thermique simplifié adjoint facilitant la compréhension de son comportement, puis l’identification de ses paramètres "observables" de conception et de fonctionnement par méthode inverse, et enfin le calcul de sa consommation énergétique optimale grâce à une méthode d’optimisation. Plus spécifiquement, l’approche sera orientée vers le développement d’outils pour promouvoir un accès facilité à la réduction des consommations unitaires auprès des entreprises au niveau national et l’intégration d’une intelligence pour l’optimisation énergétique des éléments climatiques du bâtiment ou son usage, ou encore une interface ergonomique homme-machine permettant un management efficace de son fonctionnement. Dans les faits, le problème observé est holistique et ne peut pas être pris en compte de manière sectorielle. Il est impératif d’y intégrer tous les processus impliqués dans le bâtiment et son usage (aspect comportemental des usagers). L’approche utilisée a été orientée afin de prendre en compte ultérieurement des paramètres autres que strictement énergétique, tel que les coûts ou le confort
The building field is responsible of about 40% of global energy consumption and a third of world greenhouse gas emissions. It is a main concern subject in climate change issues and fossil fuel independency. The aim of the PhD work is to bring more knowledge about thermal modeling and to create specific tools which are capable of globally optimize the office building energy management. The industrial purpose is associated with its area of expertise, which is advice in energy and ecologic transition. It concerns the difficulty to implement a retrofit action planning. Indeed, for small or middle retrofit actions, the initial study and metrology costs represent over 50% of the overall cost. This down payment induces a long return of investment. Faced with this prohibitive financial parameter, a lot of companies are reluctant to implement this type of actions. The proposed purpose is a solution that drastically reduces preliminary costs. The aspects addressed in this thesis are: the building operation state of art and its associated issues, the creation of reporting and collecting data tool of building operation and performance thanks to a dedicated in-situ measurement network, concomitant with the development of a simplified adjoin thermal model. It facilitates the understanding of its behavior. Then the final aspect are the two steps of optimization. The first is the observable building design and operation parameters with an inverse method, the second is the calculation of optimal energy consumptions. The approach is specifically oriented through the development of tools allowing a facilitated access to energy reduction action for national companies. This should assist the integration of an intelligence for energy optimization for building climatics and thermal equipments or usage. The result could be a new ergonomic man-machine interface for stock building effective management. In the facts, the problem is holistic and cannot be handle sectorally. It is imperative to integrate all the process involved in the building and its use (user behavior). The approach have been oriented to take later into account other parameters than strictly energy, as costs of comfort
APA, Harvard, Vancouver, ISO und andere Zitierweisen
32

Peixoto, Philippe. „Synthèse de nouveaux marqueurs fluorescents basés sur la structure de l'épicocconone pour la détection des protéines“. Phd thesis, INSA de Rouen, 2009. http://tel.archives-ouvertes.fr/tel-00561525.

Der volle Inhalt der Quelle
Annotation:
La détection et l'identification des protéines sur gel d'électrophorèse dépend aussi bien du marqueur des protéines utilisés (généralement un marqueur fluorescent) que de ses propriétés physicochimiques propres (rendement quantique, Stokes' shift et recouvrement des bandes d'absorption et d'émission, photoblanchiment), de sa stabilité (chimique et photochimique), et de son accessibilité. Créer une gamme de nouveaux fluorophores dont les propriétés physicochimiques peuvent être modulées en partant d'une structure bien connue et très avantageux dans l'optique d'anticiper les caractéristiques supposées des composées envisagés. Cependant, même si de nombreux fluorophores sont disponibles commercialement, ils souffrent généralement de différentes contraintes telles que leurs prix prohibitifs, leur manque de sensibilité, leur stockes' shift trop faible ou bien encore leur stabilité. L'accès à une famille de fluorophores résolvant l'ensemble de ces contraintes pour la détection de protéines sur gel d'électrophorèse représenterait donc un réel défi. L'épicocconone, isolée du champignon Epicoccocum Nigrum, se lie de façon covalente aux amines (et donc également aux protéines) en conduisant à un adduit énaminique qui est très fluorescent. Cet adduit émet dans le rouge (610 nm) lorsqu'irradié dans l'UV (395 nm) ou le visible (520 nm). Ces propriétés ont donc conduit à l'utilisation de ce produit naturel comme marqueur fluorescent de protéines sur gel d'électrophorèse menant à une sensibilité de détection rarement atteinte et à une gamme de linéarité très importante (104). La première synthèse de l'épicocconone a alors été engagée au sein de notre laboratoire. Elle a finalement conduit à une chimiothèque d'analogues encore plus efficace ayant permis d'établir une véritable relation structure-fluorescence.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
33

Malakhovski, Ian. „Sur le pouvoir expressif des structures applicatives et monadiques indexées“. Thesis, Toulouse 3, 2019. http://www.theses.fr/2019TOU30118.

Der volle Inhalt der Quelle
Annotation:
Il est bien connu que des constructions théoriques très simples telles que les structures Either (équivalent type théorique de l'opérateur logique "ou"), State (représentant des transformateurs d'état composables), Applicative (application des fonctions généralisée) et Monad (composition de programmes séquentielles généralisée), nommés structures en Haskell, couvrent une grande partie de ce qui est habituellement nécessaire pour exprimer avec élégance la plupart des idiomes informatiques utilisés dans les programmes classiques. Cependant, il est usuellement admis qu'il existe plusieurs classes d'idiomes couramment utilisés qui ne s'intègrent pas bien à ces structures, les exemples les plus remarquables étant les transformations entre arbres (types de données, dont l'utilisation doit s'appuyer soit sur les motifs généralisés soit sur une infrastructure de méta programmation lourde) et traitement des exceptions (qui sont d'habitude supposés nécessiter un langage spécial et une prise en charge de l'exécution). Ce travail a pour but de montrer que beaucoup de ces idiomes peuvent, en fait, être exprimés en réutilisant ces structures bien connues avec des modifications mineures (le cas échéant). En d'autres termes, le but de ce travail est d'appliquer les principes du rasoir KISS (Keep It Stupid Simple) et/ou d'Occam aux structures algébriques utilisées pour résoudre des problèmes de programmation courants. Techniquement parlant, ce travail a pour but de montrer que les généralisations naturelles de classes de types Applicative et Monad de Haskell, associées à la possibilité d'en faire des produits cartésiens, en produisent un cadre commun très simple pour exprimer de nombreuses choses pratiques, dont certaines sont des nouvelles méthodes très commodes pour exprimer des idées de programmation communes, tandis que les autres peuvent être vues comme systèmes d'effets. Sur ce dernier point, si l'on veut généraliser des exemples présentés dans une approche de la conception de systèmes d'effets en général, on peut alors considérer la structure globale de cette approche comme un cadre quasi syntaxique qui permet d'ériger une structure générale du cadre "mariage" au dessus de différents systèmes d'effets adhérant aux principes de base. (Bien que ce travail ne soit pas trop approfondi dans la dernière, car il est principalement motivé par des exemples qui peuvent être immédiatement appliqués à la pratique de Haskell.) Il convient toutefois de noter qu'en fait, ces observations techniques n'ont rien d'étonnant: Applicative et Monad sont respectivement des généralisations de composition fonctionnelle et linéaire des programmes; ainsi, naturellement, les produits cartésiens de ces deux structures doivent couvrir en grande partie ce que les programmes font habituellement
It is well-known that very simple theoretic constructs such as Either (type-theoretic equivalent of the logical "or" operator), State (composable state transformers), Applicative (generalized function application), and Monad (generalized sequential program composition) structures (as they are named in Haskell) cover a huge chunk of what is usually needed to elegantly express most computational idioms used in conventional programs. However, it is conventionally argued that there are several classes of commonly used idioms that do not fit well within those structures, the most notable examples being transformations between trees (data types, which are usually argued to require ether generalized pattern matching or heavy metaprogramming infrastructure) and exception handling (which are usually argued to require special language and run-time support). This work aims to show that many of those idioms can, in fact, be expressed by reusing those well-known structures with minor (if any) modifications. In other words, the purpose of this work is to apply the KISS (Keep It Stupid Simple) and/or Occam's razor principles to algebraic structures used to solve common programming problems. Technically speaking, this work aims to show that natural generalizations of Applicative and Monad type classes of Haskell combined with the ability to make Cartesian products of them produce a very simple common framework for expressing many practically useful things, some of the instances of which are very convenient novel ways to express common programming ideas, while others are usually classified as effect systems. On that latter point, if one is to generalize the presented instances into an approach to design of effect systems in general, then the overall structure of such an approach can be thought of as being an almost syntactic framework which allows different effect systems adhering to the general structure of the "marriage" framework to be expressed on top of. (Though, this work does not go into too much into the latter, since this work is mainly motivated by examples that can be immediately applied to Haskell practice.) Note, however, that, after the fact, these technical observation are completely unsurprising: Applicative and Monad are generalizations of functional and linear program compositions respectively, so, naturally, Cartesian products of these two structures ought to cover a lot of what programs usually do
APA, Harvard, Vancouver, ISO und andere Zitierweisen
34

Gagnon, David. „Projet ContextEdit, conception du SMML, une structure électronique de document basée sur les macrostructures de van Dijk“. Thesis, National Library of Canada = Bibliothèque nationale du Canada, 1999. http://www.collectionscanada.ca/obj/s4/f2/dsk1/tape7/PQDD_0017/MQ46650.pdf.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
35

Touir, Ameur. „Etude d'une structure de donnees adaptee a la recherche sur le contenu dans une base de donnees d'images“. Paris, ENST, 1993. http://www.theses.fr/1993ENST0015.

Der volle Inhalt der Quelle
Annotation:
Nous nous interessons a l'etude et a la conception d'un systeme intelligent de stockage et de recherche de graphiques et d'images. L'ambition est d'offrir la possibilite de recherche par le contenu sur des donnees images. Afin de concevoir notre systeme, nous avons adopte une demarche de conception en plusieurs etapes. Nous avons commence par choisir et analyser la representation interne, presentant les avantages de compacite et permettant les recherches associatives. Nous avons etudie ensuite, les algorithmes correspondant a cette representation. L'etude porte essentiellement sur le probleme de translation de motif, de filtrage, de recherche exacte et floue, ainsi que sur les methodes d'acces. Cette etude et cette analyse se situent a deux niveaux. Niveau interne: a ce niveau (le niveau inferieur), nous nous interessons a la recherche d'une forme ou d'un motif dans une base d'images. Les problemes poses par ce type de recherche, sont de plusieurs ordres, tels que definir et etudier le mode de repartition des donnees ou la structure choisie, ou exprimer les caracteristiques de la forme que l'on recherche, ou encore disposer d'un operateur permettant d'effectuer cette recherche de maniere efficace et prendre en compte les images contenant une forme proche (recherche floue) ; pour resoudre ces problemes, nous avons defini une structure la full inverted quadtree (f i quadtree) qui offre une gestion des images d'une maniere adequate. Nous avons defini une pseudodistance qui permet de definir et de caracteriser les images candidates (ou solutions) tout en procedant a une recherche floue. Enfin nous avons etabli un index (ou une fonction de hachage) qui permet d'optimiser le probleme (ou le cout) d'entrees/sorties. Niveau externe: dans un deuxieme niveau (le niveau superieur), nous proposons une interface de dialogue homme/machine, simple, souple et efficace. En effet, rechercher une forme dans une image peut etre exprime de differentes manieres: soit en caracterisant la forme recherchee: rechercher les images contenant une voiture, soit en dessinant la forme: rechercher les images contenant la forme (ou proche de la forme) que je dessine. Cette forme est alors codee de la meme facon qu'une image ordinaire de l'ensemble des informations stockees. Il est evident que cette approche permet de traiter ce probleme sous un certain angle et avec un aspect donne. En effet, le probleme global est considere comme etant un probleme de recherche floue dans une base d'images. Ce probleme est assez complexe et impose l'etude et l'introduction d'un certain nombre de techniques et d'operations (rotation, resolution, ensemble flou, detection, etc)
APA, Harvard, Vancouver, ISO und andere Zitierweisen
36

Touir, Ameur. „Étude d'une structure de données adaptée à la recherche sur le contenu dans une base de données d'images /“. Paris : École nationale supérieure des télécommunications, 1993. http://catalogue.bnf.fr/ark:/12148/cb356172801.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
37

Albina, Jan-Michael. „Études théoriques des couches minces à base d'électrocéramique : effets d'interface et de défauts plans sur la structure électronique“. Nantes, 2007. http://www.theses.fr/2007NANT2138.

Der volle Inhalt der Quelle
Annotation:
Les composants électroniques utilisant des couches minces à base d’oxydes de type perovskite sont très attractifs d’un point de vue technologique et scientifique en raison de leur fort potentiel comme solution alternative aux composés à base de Si. La fabrication et la croissance épitaxiale d’hétéro-structures en couches minces de quelques nanomètres d’épaisseur peuvent-être réalisées expérimentalement à partir de substrats monocristallins d’oxydes par des techniques, par exemple, de déposition par laser pulsé ou par épitaxie à jet moléculaire. Pour la fabrication de tels systèmes, il est important d’avoir des informations détaillées sur les structures et les barrières électroniques entre le film, le substrat et les électrodes. Des calculs par premiers principes basés sur la théorie de la fonctionnelle de la densité et utilisant une méthode à base mixte et à pseudo-potentiels ont été menés afin d’étudier les propriétés mécaniques et électroniques d’interfaces perovskite/perovskite. Les offsets de bandes entre un film diélectrique de SrTiO3 et un substrat isolant de LaAlO3 ainsi que les barrières de Schottky entre SrTiO3 et une électrode de SrRuO3 ont été calculés et analysés pour différentes terminaisons et translations latérales. En outre, pour une interface semi-cohérente SrTiO3/SrZrO3, un modèle utilisant des dislocations séparées par des régions cohérentes à été employé afin d’étudier l’influence des dislocations sur les barrières d’énergie et sur l’énergie mécanique de séparation à l’interface. Enfin l’impact de défauts structurels étendus sur les propriétés électriques de SrTiO3 à été étudié pour différentes orientations: (001), (110) et (111)
Electroceramic thin-film devices based on perovskite-type oxide compounds have very attractive scientific and technological potentials as alternatives to Si-based functional components in microelectronics. Heterophase systems with film thickness of few nanometers and nearly perfect crystalline structures and compositions can be fabricated by epitaxial growth on single-crystalline oxide substrates, e. G. Via molecular beam epitaxy or pulsed laser deposition techniques. For a predictive design of such heterostructures it is important to have detailed information about electronic states and barriers between the deposited films, the supporting substrates, and the connecting electrodes. First-principles electronic-structure calculations, based on density functional theory and by means of a mixed-basis pseudopotential method, were carried out to investigate mechanical and electronic properties at lattice-matched perovskite/perovskite interfaces. Band offsets between dielectric SrTiO3 films and insulating LaAlO3 substrates, and Schottky barriers between SrTiO3 and conducting SrRuO3 electrodes were calculated and analyzed in terms of different interface terminations and translation states. Futhermore for a semi-coherent SrTiO3/SrZrO3 interface a model using localized misfit dislocations separated by coherent regions was employed to investigate the influence of dislocation cores on electronic energy barriers and on mechanical separation energies. Finally, the impact of extended structural defects on (001), (110), and (111)-oriented planes on the electrical properties of pure SrTiO3 was investigated
APA, Harvard, Vancouver, ISO und andere Zitierweisen
38

Marone-Hitz, Pernelle. „Modélisation de structures spatiales déployées par des mètres ruban : vers un outil métier basé sur des modèles de poutre à section flexible et la méthode asymptotique numérique“. Thesis, Ecole centrale de Marseille, 2014. http://www.theses.fr/2014ECDM0011/document.

Der volle Inhalt der Quelle
Annotation:
Les dimensions des satellites spatiaux tendent à croître fortement alors que le volume disponible dans la coiffe des lanceurs est limité. L'utilisation de structures déployables permet de résoudre cette contradiction. Afin de développer l'offre disponible, le département Recherche de Thales Alenia Space étudie les mètres rubans comme solution innovante de déploiement. La première structure envisagée est un télescope déployé par le déroulement de six mètres rubans assurant également le positionnement du miroir secondaire. D'autres structures déployables utilisant les propriétés des mètres rubans sont également en cours d'étude : mât, panneaux solaires, etc.Il convient alors de se doter d'outils de modélisation spécifiques pour modéliser les scénarios de déploiement et multiplier les configurations envisagées. Deux précédentes thèses ont conduit à l'élaboration de modèles énergétiques de poutre à section flexible, rendant compte du comportement plan des rubans ([Guinot2011]) puis de leur comportement tridimensionnel ([Picault2014]). Cette thèse présente différentes contributions autour de ces modèles de poutre à section flexible. Les hypothèses du modèle ont été améliorées. Le re-positionnement de la ligne de référence sur le barycentre des sections conduit à des résultats plus proches des scénarios physiques (apparition et disparition des plis sur le ruban). A ce jour, les hypothèses et les équations du modèle sont définitivement formalisées. Nous avons établi les équations locales 1D (équilibre, comportement) dans le cas des comportements tridimensionnels avec le souci de la plus grande généralité. Établir ensuite les équations dans des cas dérivés simplifiés (restriction aux comportements 2D, section faiblement courbée) nous a permis d'obtenir un certain nombre de solutions analytiques et les équations à implémenter dans l'outil métier.Nous avons développé sur le logiciel de continuation ManLab les premiers éléments d'un outil métier performant dédié à la modélisation des mètres rubans. Nous avons ainsi pu réaliser deux contributions principales :- Un outil généraliste, performant en temps de calcul, permettant d'étudier les systèmes différentiels 1D (BVP, Boundary Value Problems). Les équations locales des modèles de poutre à section flexible ont été implémentées dans cet outil, avec une discrétisation par interpolation polynomiale et collocation orthogonale.- Un élément fini spécifique pour les poutres à section flexible et son implémentation dans ManLab.Ces éléments ont permis de réaliser différentes simulations numériques conduisant à une meilleure compréhension du comportement des mètres rubans grâce aux diagrammes de bifurcation associés à plusieurs essais significatifs
Dimensions of spatial satellites tend to grow bigger and bigger, whereas the volume in launchers remains very limited. Deployable structures must be used to meet this contradiction. To expand the offer of possible solutions, the Research Department of Thales Alenia Space is currently studying tape springs as an innovative deployment solution. The first structure to be considered is a telescope that is deployed by the uncoiling of six tape springs that also ensure the positioning of the secondary mirror. Other deployable structures that use the properties of tape springs are under investigation : mast, solar panels,...Specific modeling tools then appear compulsory to model deployment scenarios and multiply the tested configurations. Two previous PhD thesis lead to the development of energetic rod models with flexible cross-sections that account for planar ([Guinot2011])and three dimensional behavior of tape springs ([Picault2014]). This PhD thesis presents several contributions on these rod models with flexible cross-sections. The hypotheses of the model were improved. Re-positioning the reference rod line so that it passes through the sections' centroids leads to results that are closer to experimental scenarios (creation and disappearance of folds in the spring). The hypotheses and equations of the model are now definitively formalized.We have derived the 1D local equations in the three-dimensional behavior case in the most generalist way. Then, the derivation of the equations in simplified cases (restriction to 2D behavior, shallow cross-section) enabled us to obtain several analytic solutions and the equations to implement in the specific modeling tool.We have developed on the continuation software ManLab the first elements towards a home made, efficient modeling tool dedicated to the modeling of tape springs. Two main contributions can be listed :- A generalist tool, efficient in calculus times, to study 1D differential problems (BVP, Boundary Value Problems). The local equations of the rod models with flexible cross sections were implemented in this tool, with a discretization based on polynomial interpolation and orthogonal collocation.- A specific finite element for rods with flexible cross sections and its implementation in ManLab.These elements enabled us to perform several numerical simulations and have a better understanding of the behavior of tape springs thanks to full bifurcation diagrams obtained for significant tests
APA, Harvard, Vancouver, ISO und andere Zitierweisen
39

Gan, Changquan. „Une approche de classification non supervisée basée sur la notion des K plus proches voisins“. Compiègne, 1994. http://www.theses.fr/1994COMP765S.

Der volle Inhalt der Quelle
Annotation:
La classification non supervisée a pour objectif de définir dans un ensemble de données des classes permettant de caractériser la structure interne des données. C’est une technique très utile dans de nombreux domaines technologiques comme en diagnostic des systèmes complexes (pour la mise en évidence de modes de fonctionnement) et en vision par ordinateur (pour la segmentation d'image). Les méthodes traditionnelles de la classification non supervisée présentent plusieurs problèmes en pratique, par exemple, la nécessité de préfixer le nombre de classes, le manque de stratégie appropriée pour le réglage de paramètres et la difficulté de valider le résultat obtenu. Dans cette thèse nous tentons d'apporter une solution à ces problèmes en développant une nouvelle approche basée sur la notion des K plus proches voisins. Alliant la détection de mode et la recherche de graphe reflétant la proximité des données, cette approche identifie d'abord les centres de classe, puis construit une classe autour de chaque centre. Elle n'emploie aucune connaissance a priori sur les données et ne possède qu'un seul paramètre. Une stratégie de réglage de ce paramètre a été établie après une étude théorique et une analyse expérimentale. L’idée est de rechercher la stabilité du résultat de classification. Des tests présentés dans ce mémoire montrent une bonne performance de l'approche proposée ; elle est libre d'hypothèse sur la nature des données, relativement robuste et facile à utiliser
APA, Harvard, Vancouver, ISO und andere Zitierweisen
40

Ladeira, Icaro. „Développement d'un solveur rapide et fiable basé sur des formules simplifiées pour évaluer la réponse des supports tubulaires d'éoliennes offshore soumis à l 'impact d'un navire“. Electronic Thesis or Diss., Ecole centrale de Nantes, 2023. http://www.theses.fr/2023ECDN0016.

Der volle Inhalt der Quelle
Annotation:
Cette thèse traite du développementde méthodes analytiques pour l’analyse de laréponse aux collisions de navires d’éoliennesoffshores tubulaires telles que les monopieux etles flotteurs de type Spar, en considérant lesdéformations non seulement plastiques maisaussi élastiques, ceci afin de traiter des impactsà faible et à haute énergies.Le travail de recherche s’articule en deuxparties. La première concerne la réponse àl’impact d’éoliennes classiques tubulaires endéformation élastoplastique quasi-statique. Unalgorithme « pas à pas » est développé sur labase de formulations théoriques puisimplémenté dans un solveur permettant deprédire le processus de déformation complet del'éolienne.Dans la seconde partie, la réponse dynamiqueélastique d’un monopieu impacté par un navireest étudiée. Une méthode basée sur desmatrices de transfert est développée pourquantifier la réponse de l'éolienne à une chargeimpulsionnelle donnée et en particulierl'accélération vue par la nacelle.Ce travail de thèse s’inscrit dans le cadre duprojet de recherche ColFOWT, qui vise àdévelopper un outil complet et rapide d'analysede collisions navire-éolienne offshore. L'outilpermettra à terme de modéliser le processusde transfert d'énergie multi-mécanismes qui alieu lors d'une collision de navire, y compris lesmodes de déformation locaux et globaux ainsique l’effet des chargements hydrodynamiqueset des lignes d’ancrage
This thesis focuses on thedevelopment of simplified methodologies toassess the ship collision response of offshorewind turbines (OWT) supported by standalonetubular members such as monopiles and sparfloaters, with the inclusion of elasticcontributions, and the capability to address bothlow and high-energy impactsThe research is divided into two parts. The firstpart concerns the quasi-static elasto-plasticimpact response of typical OWTs. A timesteppingalgorithm was developed based ontheoretical formulations and implemented in astructural solver that is capable of predicting theOWT’s complete deformation process.The second part examines the dynamic elasticresponse of a monopile to a ship impact. Asimplified two-step framework based ontransfer matrices was developed to assess theresponse of the OWT to a given collision load,in particular the RNA acceleration.This thesis was conducted in the framework ofthe ColFOWT project, which aims to develop acomprehensive and rapid assessment tool forship-OWT collisions. The tool will be capable ofmodelling the multi-mechanism energy transferprocess that takes place during a collisionevent, including local and global deformationmechanisms, hydrodynamic effects, andmooring response
APA, Harvard, Vancouver, ISO und andere Zitierweisen
41

Tchekiken, El Hadi. „Estimation de l'orientation 3D du cœur : une approche basée sur l'analyse de la structure spatio-temporelle de l'électrocardiogramme orthogonal“. Lyon, INSA, 1997. http://www.theses.fr/1997ISAL0008.

Der volle Inhalt der Quelle
Annotation:
Notre travail porte sur l'estimation de l'orientation 3D du coeur à partir de l'électrocardiogramme (ECO) orthogonal. L'objectif à terme est de réaliser une synchronisation spatio-temporelle de l'échocardiogramme d'effort sur l'ECG pour la détection en série d'images échocardiographiques bidimensionnelles analysables en routine hospitalière. En effet, durant l'effort, le cœur est animé d'un mouvement pendulaire rendant contraignant l'examen échocardiographique. Nous proposons d'abord une méthode pour déterminer la position des boucles spatio-temporelle QRS et T successives dans un référentiel électrique lié aux axes anatomiques du sujet. Ceci nous conduit à déterminer trois axes principaux d'inertie pour chaque boucle ECG. Nous abordons ensuite l'étude de la reproductibilité spatiale et structurelle de ces boucles ECG en fonction de la respiration, de la posture et de l'effort. Les résultats obtenus confirment la reproductibilité (spatiale et structurelle) battement à battement des ECGs et mettent en évidence une corrélation entre la position anatomique du cœur et la position spatiale des boucles. Partant de l'hypothèse selon laquelle la structure spatio-temporelle de l'ECG est liée au système «cœur», nous développons une méthode permettant, à partir des boucles ECG, d'estimer l'orientation 'd'un axe anatomique du cœur. Nous proposons alors deux méthodes d'imagerie pour comparer les positions anatomiques et électriques du grand axe du VO. La première méthode est basée sur le repérage 3D de plans de coupes écho graphiques des quatre cavités, et la deuxième sur 1' imagerie par résonance magnétique tridimensionnelle (IRM 3D) du thorax et du cœur. Les résultats obtenus montrent qu'il existe une corrélation certaine entre les positions anatomiques et ~ électriques du cœur. De plus, il est possible d'estimer des changements de position du cœur d'un battement à l'autre, ce qui permet d'envisager une technique de synchronisation spatio-temporelle de l'échocardiogramme d'effort sur l'ECG
This work is about the estimation of the 3D orientation of the heart from the orthogonal electrocardiogram. The long term objective is to perform a spatio-temporal ECG-gated echocardiography technique for the acquisition of serial, but comparable images during a stress echocardiography test. We first propose a method for the determination of the position of the successive spatio-temporal QRS and T loops with reference to the body coordinates system. We determine the inertia axes which define a new coordinates system closely related to the loop's preferential space. We then study the spatial and the structural reproducibility of the ECG loops for body posture, respiration and stress. The obtained results have confirmed the beat-to-beat reproducibility and evidenced the correlation between the position of the heart and the spatial position of the ECG loops. Starting from the hypothesis that the QRS and T loops are tied to the heart, we have developed a method to estimate the orientation of any anatomic axis of the heart. For the evaluation, we proposed two approaches which allow the confrontation of the electric and the anatomic positions of the heart. The first approach is based on the spatial determination of echocardiographic planes of the four chambers and the second one on the 3D MRI of the thorax and the heart. The results show that there is a correlation between electric and anatomic positions of the heart. In this work, we also evidenced that our method is suitable for the estimation of the changes of the beat-to-beat orientation of the heart. Hence, we can consider the development of a spatio-temporal ECG-gated echocardiography technique
APA, Harvard, Vancouver, ISO und andere Zitierweisen
42

Koverga, Volodymyr. „Organisation de la structure locale de mélanges liquide ionique/solvant moléculaire : une étude théorique basée sur la dynamique moléculaire“. Thesis, Lille 1, 2017. http://www.theses.fr/2017LIL10221/document.

Der volle Inhalt der Quelle
Annotation:
Ce travail est motivé par l’utilisation dans de nombreux dispositifs électrochimiques des mélanges de liquides ioniques (LIs) à base du cation 1-butyl-3-méthylimidazolium (C4mim+) couplés à des anions perfluorés (BF4−, PF6−, TFO−, TFSI−), avec d’autre part des solvants aprotiques polaires tels que l'acétonitrile (AN), la γ-butyrolactone (γ-BL), le carbonate de propylène (PC). Nous avons réalisé des simulations de dynamique moléculaire afin de caractériser la structure locale de ces mélanges. Les variations de la structure microscopique en fonction de la composition du mélange ont été calculées via l’utilisation d’un arsenal de fonctions statistiques avancées, basé sur la structure locale. Celle-ci est largement déterminée par la distribution radiale et orientationelle des plus proches voisins à un ion ou une molécule de référence. Dans un premier temps, la structure locale dans les LIs purs et dans les solvants moléculaires a été analysée. Pour l'ensemble des LIs, il a été établi que les interactions de liaison H de type C-H···X impliquant les atomes d’hydrogène H2,4,5 du cycle imidazolium et les atomes électronégatifs de l’anion sont faibles et peuvent être classés dans l’ordre suivant TFO-, BF4-, PF6-, TFSI-. Pour le solvant pur, nos résultats montrent que les interactions dipôle-dipôle jouent un rôle important dans la structure locale des solvants étudiés, alors que les interactions liaison H dans le PC et le γ-BL sont faibles.Les résultats montrent que dans tous les mélanges LI/solvant moléculaire étudiés, la distribution de l'anion autour du cation n'est pas fortement affectée lorsque la fraction molaire du LI, xIL, varie entre 0,3 et 1,0. Mais pour les valeurs de xIL inférieures à 0,3 les interactions entre cation et anion sont fortement diminuées. Ces résultats corroborent les données publiées sur le comportement du déplacement chimique du proton H² en fonction de xIL. Nos résultats soulignent aussi l'importance des interactions anion-solvant dans la description de la structure locale des mélanges LI/solvant moléculaire
Mixtures of imidazolium ionic liquids (ILs) with perfluorinated anions and dipolar aprotic solvent are promising candidates for electrolytic components used in different electrochemical applications. Current state of technologies requires detailed information on the influence of the mixture composition on the physical and chemical properties of the mixture. This thesis presents a molecular dynamics simulation analysis of the local structure organization of the mixtures of 1-butyl-3-methylimidazolium (C4mim+) ILs with perfluorinated anions (BF4‒, PF6‒, TFO‒, TFSI‒) and dipolar aprotic solvents such as acetonitrile (AN), γ-butyrolactone (GBL) and propylene carbonate (PC). As a first step, the local structure in the neat ILs and molecular solvents has been analyzed. For the set of ILs it was established that H-bonding interactions at the H2 site is strongly enhanced compared to the H4-5 sites in the case of asymmetric and/or strongly basic anions like TFO− or TFSI−. The cation-cation contacts via the aggregation of the butyl chains is much stronger and less anion-dependent than the π+-π+ stacking of the imidazolium rings. For the pure solvent our results show that although the dominant dipole-dipole orientation between a reference molecule and first neighbor is the antiparallel one, while for the subsequent neighbors the antiparallel orientation is gradually weakened in favor of the parallel one. More distant neighbors tend to be parallel to the reference molecule. A deep analysis of the local structure made it possible to identify the presence of weak hydrogen bonds in the selected dipolar solvents. For the mixtures of imidazolium-based ILs the results show that in all the studied IL/molecular solvent mixtures, the distribution of the anion around the cation is not drastically affected in the range of xIL between 1.0 and 0.3 and for further decrease of xIL noticeable changes in the distance characteristics describing the cation and anion hydrogen bonding interactions, occur. These changes are associated with the expected weakening of the cation and anion interactions. These results are in good agreement with the behavior of the 2H chemical shift as a function of xIL. Furthermore, our results point out to the importance of the anion-solvent interactions in describing the local structure in these mixtures
APA, Harvard, Vancouver, ISO und andere Zitierweisen
43

Boissonnault, Marie-Ève. „Saisir les obstacles au transfert des connaissances en milieu de travail: De l'impact de l'identité et des stéréotypes sur la base de l'âge“. Thesis, University of Ottawa (Canada), 2008. http://hdl.handle.net/10393/28239.

Der volle Inhalt der Quelle
Annotation:
Pour cette thèse de recherche, nous nous sommes intéréssés aux relations intergroupes dans la perspective du partage et du transfert des connaissances au travail. Au Canada, le monde du travail est en bouleversement en raison de pénuries de main-d'oeuvre anticipées résultant des nombreux départs à la retraite des travailleurs expérimentés et du nombre insuffisant de jeunes travailleurs pour les remplacer. Dans ce contexte, il est plausible de penser que le transfert des connaissances puisse potentiellement réduire voire éviter des pertes de mémoire organisationnelle. Ainsi, cette thèse de maîtrise aborde une thématique nouvelle et pertinente, soit la dimension identitaire dans son lien avec le partage et le transfert des connaissances dans un milieu de travail de plus en plus marqué par la diversité des âges et donc des générations. Les résultats obtenus entendent faire avancer les connaissances quant aux applications de la Théorie de l'identité sociale aux groupes basés sur l'âge.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
44

Hakiki, Nour Eddine. „Propriétés et structure électronique des films passifs formés sur les aciers inoxydables et les alliages à base de nickel du type Inconel“. Rouen, 1995. http://www.theses.fr/1995ROUES006.

Der volle Inhalt der Quelle
Annotation:
Les recherches développées dans le cadre de ce travail de thèse visent à étudier les propriétés des films passifs formés sur les aciers inoxydables et les alliages inoxydables à base de nickel. Il s'agit plus précisément d'établir leur structure électronique à l'aide des techniques et des concepts de l'électrochimie des semi-conducteurs. L'étude est conduite sur des films minces formés à température ambiante en milieu tampon de pH 9,2 et sur les films beaucoup plus épais formés à température élevée (350°C) en milieu du type milieu primaire des réacteurs nucléaires. Sur le plan expérimental, l'étude a fait appel à des techniques de caractérisation analytiques (SDL et Auger) et structurales (MEB, RX rasants et spectroscopie Raman) ainsi qu'à des techniques électrochimiques et photoélectrochimiques. Les résultats obtenus révèlent que les zones des films passifs constituées par des oxydes de chrome et de fer présentent des semi-conductivités distinctes. Le modèle de structure électronique est celui d'une hétérojonction du type p-n. La spécificité de chaque film réside dans la nature des espèces chimiques responsables des zones de charges d'espace qui se développent aux interfaces métal-film et film-solution. L'action du molybdène sur la structure électronique est également discutée. Cette partie de l'étude s'appuie sur l'analyse théorique de la barrière de Schottky dans le cas où la contribution de plusieurs niveaux électroniques localisés dans la bande interdite est à prendre en compte. Enfin, le comportement des semi-conducteurs dégénérés est examiné dans la statistique de Fermi-Dirac. Le développement mathématique effectué dans ce travail concerne la résolution de l'intégrale de Fermi F1/2. Ce développement conduit à une relation du type Mott-Schottky laquelle est appliquée à l'étude des films passifs très fortement dopées formés sur du fer
APA, Harvard, Vancouver, ISO und andere Zitierweisen
45

Malterre, Daniel. „Influence du désordre structural sur les fluctuations de valence des systèmes à base de terres-rares“. Nancy 1, 1988. http://www.theses.fr/1988NAN10177.

Der volle Inhalt der Quelle
Annotation:
Étude réalisée pour les composés à valence saturée (ceni::(3), ceco etc. Et les composés à valence 2 intermédiaire (CEPD::(3), CESI::(2)) ou de Kondo(CESN::(3)). Étude de la corrélation entre la structure de bande et l'anomalie de valence. Étude du cas des lanthanides plus lourds(EU et YB)
APA, Harvard, Vancouver, ISO und andere Zitierweisen
46

Dhifli, Wajdi. „Fouille de Sous-graphes Basée sur la Topologie et la Connaissance du Domaine: Application sur les Structures 3D de Protéines“. Phd thesis, Université Blaise Pascal - Clermont-Ferrand II, 2013. http://tel.archives-ouvertes.fr/tel-00922209.

Der volle Inhalt der Quelle
Annotation:
Cette thèse est à l'intersection de deux domaines de recherche en plein expansion, à savoir la fouille de données et la bio-informatique. Avec l'émergence des bases de graphes au cours des dernières années, de nombreux efforts ont été consacrés à la fouille des sous-graphes fréquents. Mais le nombre de sous-graphes fréquents découverts est exponentiel, cela est due principalement à la nature combinatoire des graphes. Beaucoup de sous-graphes fréquents ne sont pas pertinents parce qu'ils sont redondants ou tout simplement inutiles pour l'utilisateur. En outre, leur nombre élevé peut nuire ou même rendre parfois irréalisable toute utilisation ultérieure. La redondance dans les sous-graphes fréquents est principalement due à la similarité structurelle et / ou sémantique, puisque la plupart des sous-graphes découverts diffèrent légèrement dans leur structures et peuvent exprimer des significations similaires ou même identiques. Dans cette thèse, nous proposons deux approches de sélection des sous-graphes représentatifs parmi les fréquents a n d'éliminer la redondance. Chacune des approches proposées s'intéresse à un type spécifique de redondance. La première approche s'adresse à la redondance sémantique où la similarité entre les sous-graphes est mesurée en fonction de la similarité entre les étiquettes de leurs nœuds, en utilisant les connaissances de domaine. La deuxième approche s'adresse à la redondance structurelle où les sous-graphes sont représentés par des descripteurs topologiques définis par l'utilisateur, et la similarité entre les sous-graphes est mesurée en fonction de la distance entre leurs descriptions topologiques respectives. Les principales données d'application de cette thèse sont les structures 3D des protéines. Ce choix repose sur des raisons biologiques et informatiques. D'un point de vue biologique, les protéines jouent un rôle crucial dans presque tous les processus biologiques. Ils sont responsables d'une variété de fonctions physiologiques. D'un point de vue informatique, nous sommes intéressés à la fouille de données complexes. Les protéines sont un exemple parfait de ces données car elles sont faites de structures complexes composées d'acides aminés interconnectés qui sont eux-mêmes composées d'atomes interconnectés. Des grandes quantités de structures protéiques sont actuellement disponibles dans les bases de données en ligne. Les structures 3D des protéines peuvent être transformées en graphes où les acides aminés représentent les nœuds du graphe et leurs connexions représentent les arêtes. Cela permet d'utiliser des techniques de fouille de graphes pour les étudier. L'importance biologique des protéines et leur complexité ont fait d'elles des données d'application appropriées pour cette thèse.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
47

Guca, Ewelina. „Caractérisation structurale de la CTP : phosphocholine cytidylyltransférase de Plasmodium falciparum et identification de composés inhibiteurs basée sur la structure visant à cibler la voie de biosynthèse des phospholipides“. Thesis, Montpellier, 2016. http://www.theses.fr/2016MONTT077.

Der volle Inhalt der Quelle
Annotation:
À l’heure actuelle, le paludisme reste un problème de santé majeur et demeure une des maladies parasitaires les plus menaçantes. Parmi les cinq espèces de malaria infectant l’homme, Plasmodium falciparum est la forme la plus mortelle. Lors de la phase érythrocytaire de son cycle de vie, causant tous les symptômes du paludisme, P.falciparum utilise les phospholipides pour créer les membranes nécessaires au développement de cellules filles. Chez P. falciparum, la phosphatidylcholine est principalement obtenue grâce à la voie de synthèse de novo, dite voie de Kennedy. Dans cette voie de biosynthèse, la seconde étape catalysée par la CTP:phosphocholine cytidylyltransferase [EC 2.7.7.15] est limitante et apparait essentielle pour la survie du parasite murin P. berghei lors de la phase sanguine. Les objectifs de mon travail de thèse ont été de caractériser structuralement cette enzyme et d’identifier des effecteurs, principalement grâce à des approches de « fragment-based drug design » (FBDD). Ainsi, la première structure cristalline du domaine catalytique de l’enzyme (PfCCT) a été déterminée avec une résolution de 2.2 Å. De plus, les structures de trois complexes enzyme-substrat (en présence de CMP, de phosphocholine ou de choline) et d’un complexe enzyme-produit (CDP-Choline) ont été déterminées. Ces structures cristallographiques apportent des informations détaillées sur la poche de liaison de l’enzyme et elles ont révélé des informations sur le mécanisme de la réaction catalytique à l’échelle atomique. La seconde partie de ma thèse présente les méthodes développées pour identifier des inhibiteurs potentiels de la PfCCT. Une approche de FBDD a été utilisée pour identifier et sélectionner de petites molécules (fragments, PM<300 Da) se liant à la PfCCT. Diverses techniques biophysiques (fluorescence-based thermal shift assay, différence de transfert de saturation par RMN, dénaturation chimique isotherme) ont permis la sélection de 23 fragments à partir du criblage d’une bibliothèque (~ 300 molécules). En parallèle, un criblage in silico de plus grandes bibliothèques de fragments (environ 15 000 composés) a permis d’identifier 100 fragments “hits”. Enfin, 5 composés déjà connus pour inhiber la croissance parasitaire (Malaria Box fournit par Medecines for Malaria Venture) ont été sélectionnés pour leur inhibition de l’activité de la PfCCT recombinante. L’ensemble de ces données ouvre la voie pour l’élaboration de futurs composés ciblant la PfCCT et inhibant la biosynthèse de phosphatidylcholine chez P. falciparum
Malaria remains a major global health problem and the most threatening parasitic disease. Among the 5 malaria species that affect humans, Plasmodium falciparum is the most deadly form. During its life cycle, in erythrocytic stage, which causes all the malaria symptoms, P. falciparum relies on phospholipids to build the membranes necessary for daughter cell development. Approximately 85% of parasite phospholipids consist of phosphatidylcholine (PC) and phosphatidylethanolamine (PE) synthesized by the parasite through the de novo Kennedy pathways. In the pathway of phosphatidylcholine biosynthesis, the second step catalyzed by CTP:phosphocholine cytidylyltransferase [EC 2.7.7.15] is rate limiting and appears essential for the parasite survival at its blood stage. In this PhD thesis I focus on the structural characterization of this enzyme and the identification of effectors mainly by fragment-based drug design approach (FBDD). The first reported crystal structure of the catalytic domain of the enzyme target (PfCCT) has been solved at resolution 2.2 Å. Four other crystal structures of PfCCT in complex with substrates (CMP, phosphocholine and choline) or product (CDP-choline) have been determined. These structural data give detailed images of the binding pocket and reveal the enzyme structures at all catalytic steps that provide crucial information on the catalytic mechanism at atomic level. The second part of the project present the methods developed to identify potential PfCCT inhibitors. A FBDD approach was used in order to identify and select small molecules (fragments, MW< 300 Da) binding to the PfCCT. A combination of biophysical techniques (fluorescence-based thermal shift assay, saturation transfer difference NMR and isothermal chemical denaturation) allowed the selection of 23 fragment hits from the screenings of fragment library (~ 300 molecules). In parallel in silico screening of larger fragment libraries (~15,000 compounds) resulted in 100 selected hits. Finally, 5 compounds already known to inhibit parasite growth (Malaria Box from Medicines for Malaria Venture) were selected for their inhibition of the recombinant PfCCT activity. The results obtained within this thesis brought important knowledge and structural insights on the catalytic mechanism of PfCCT. Taken together, these results pave the way for future structure-based drug design to target PfCCT and to inhibit the essential phosphatidylcholine biosynthesis in P. falciparum
APA, Harvard, Vancouver, ISO und andere Zitierweisen
48

Jaganathen, Yannen. „Vers une description unifiée de la structure et des réactions basée sur le modèle en couches avec états de Gamow“. Caen, 2012. http://www.theses.fr/2012CAEN2041.

Der volle Inhalt der Quelle
Annotation:
Le modèle en couches avec états de Gamow qui apporte une description des états nucléaires liés, résonnants et de diffusion peut être considéré comme une extension du modèle en couches aux systèmes quantiques ouverts. Par un traitement rigoureux du continuum de diffusion non-résonnant à une particule, le modèle pose les bases d'un cadre théorique unifié permettant de décrire sur un même plan la structure des noyaux et les mécanismes de réactions. Considéré jusqu'à présent uniquement pour des études de structure, ce travail de thèse signe la première application du modèle en couches avec états de Gamow aux réactions nucléaires, et plus spécifiquement aux réactions de diffusions élastiques et inélastiques de nucléons. Les développements théoriques et numériques effectués y constituent une démonstration de la faisabilité des méthodes et permettent une description d’une part de la cible pouvant être liée ou résonnante et d’autre part des états liés, résonnants et de diffusion du système global. Pour la première mise en pratique du modèle, la diffusion d'un proton par le noyau à halo a été étudiée au moyen d'interactions schématiques de portée finie. Le formalisme a alors permis de déterminer les spectres des noyaux à A-1 et A corps et les sections efficaces différentielles de diffusion élastique et de diffusion inélastique vers l'état excité. La convergence des calculs au nombre de couches partielles est analysée ; les résultats sont comparés aux données expérimentales et leur sensibilité au choix de l'interaction à deux corps est également examinée
Gamow Shell Model which provides a consistent many-body description of nuclear bound states, resonances and scattering states can be considered an open-quantum-system extension to the standard Shell Model. The model lays the groundwork to a unified theoretical framework for the description of nuclear structure and nuclear reactions through a proper treatment of the coupling to the non-resonant particle continuum. So far used as a tool for nuclear structure studies, this work deals with its generalization to nuclear reactions, and more specifically to elastic and inelastic nucleon-nucleus scattering. We have shown that this model can be used in practical applications and allows a description on the one hand of the target which can be bound or resonant and the other hand the bound, resonant and scattering states of the total system. The first applications of the Gamow Shell Model formalism to proton scattering from 6He halo nucleus are presented in the thesis by the means of finite-ranged schematic interactions. The energy spectra of nuclei are determined, as well as p-6He phase shifts and differential cross sections, both elastic and inelastic (to the excited state of). The convergence of calculated cross sections to the number of partial waves is reviewed; results are compared to experimental data and their sensitivity to the choice of two-body interactions is also investigated
APA, Harvard, Vancouver, ISO und andere Zitierweisen
49

El, Moutaouakkil Abdelmajid. „Approche basée sur le squelette pour la segmentation et l'analyse 2D et 3D des images tomographiques de la structure osseuse“. Lyon, INSA, 1999. http://www.theses.fr/1999ISAL0027.

Der volle Inhalt der Quelle
Annotation:
L’objectif de notre travail de thèse est de segmenter les images radiologiques du système trabéculaire osseux, et d'en extraire des paramètres de quantification de la structure osseuse. Nous introduisons une nouvelle approche de segmentation, que nous appelons approche 'squelette', à côté des deux approches déjà citées dans la littérature qui sont l'approche 'région' et l'approche 'frontière'. Nous développons sous cette approche une méthode de segmentation, particulièrement adaptée à nos images tomographiques osseuses, basée sur une généralisation en niveaux de gris de la squelettisation binaire. Cette méthode est facilement adaptable à des images tomographiques de l'os provenant de systèmes radiologiques de conception et d'échelles différentes. Nous présentons et introduisons plusieurs méthodes de paramétrisation pour analyse quantitative de l'architecture osseuse (paramètres de connectivité, directionnels ou morphométriques) et discutons leur signification en comparaison avec les paramètres décrits antérieurement dans la littérature. Nous démontrons l'importante influence des paramètres de segmentation sur les mesures d'analyse de structure. Une calibration de la méthode développée et 1 une validation approfondie sont faites sur fantôme et sur spécimens anatomiques. Notre travail inclut la généralisation tridimensionnelle de la méthode de segmentation et de l'analyse paramétrique de l'architecture osseuse
The purpose of this thesis is to present segmentation of radiological images of the trabecular bone, and extraction of quantification parameters, characterising the bone structure. Segmentation methods are typically classified in “region” and “edge” approaches. In this study we developed a new “squeleton” based approach, particularly well suited to segment tomographic images of the trabecular bone. First the skeleton of the structure is extracted using a gray levet generalization of binary squeletonisation, and then the skeleton is perpendicularly thickened to detect the total structure. The proposed method is easily adaptable to tomographic images obtained from different radiological systems and performed well. We also introduced several direct methods for the parametrisation of the trabecular architecture such as connectivity, directional and morphometric parameters, which are interpreted and compared with parameters described earlier in the literature. The important influence of the segmentation factors on architectural parameters' measures is clearly demonstrated and quantified. The developed method was calibrated and validated on phantom and anatomical specimens. Generalisation of the methodology for the segmentation and the parametrisation of 3D images were performed
APA, Harvard, Vancouver, ISO und andere Zitierweisen
50

Deheuvels, Olivier. „Compromis entre productivité et biodiversité sur un gradient d'intensité de gestion de systèmes agroforestiers à base de cacaoyers de Talamanca, Costa Rica“. Thesis, Montpellier, SupAgro, 2011. http://www.theses.fr/2011NSAM0026/document.

Der volle Inhalt der Quelle
Annotation:
Le cacaoyer (Theobroma cacao, L.) est cultivé dans les tropiques humides d'Amérique latine, d'Afrique et d'Asie. Principale source de revenus d'une agriculture essentiellement familiale, les systèmes agroforestiers à base de cacaoyers fournissent de nombreux services écologiques et contribuent à la conservation de la biodiversité. Ces systèmes associent plantes ligneuses et cultures de manière simultanée, dans une gamme importante et peu décrite de richesses et de structures botaniques. Les connaissances actuelles sur leur productivité se limitent à des essais en milieu contrôlé associant un petit nombre d'espèces. Nos travaux testent l'hypothèse d'une relation de compromis entre le niveau de productivité des cacaoyers et le niveau de biodiversité hébergée par les agroforêts à base de cacaoyers. Nous caractérisons ces compromis sur un gradient de situations de production paysannes, reposant sur la structure verticale, l'intensité de gestion de la composante végétale et le contexte bio-physique des agro-systèmes étudiés. Sur un dispositif de 36 cacaoyères paysannes situées dans la région de Talamanca, Costa Rica, nous montrons que des variations significatives de la structure végétale reflètent les modes de gestion de la parcelle et affectent le rendement par cacaoyer (295 à 667g/arbre/an) mais pas le rendement en cacao (136 kg/ha/an), ni le volume végétal global (400 m3/ha). Ces variations de la structure végétale affectent peu la diversité α des peuplements de plantes associées, d'épiphytes, d'amphibiens, de reptiles, de mamifères, d'invertébrés du sol et de la litière, mais leur diversité β répond de manière contrastée à ces variations d'habitat. Les relations de compromis que nous mettons finalement en évidence entre la productivité en cacao marchand à l'hectare ou à l'arbre et les niveaux de biodiversité atteints sont de nature (linéaire, cubique, quadratique) et de tendances (négative, postive) contrastées selon le taxon considéré et remettent en cause les résultats de certains travaux récents. Nos travaux dévoilent également des situations de compromis optimales, offrant des perspectives positives pour l'intensification écologique des systèmes agroforestiers tropicaux
Cacao (Theobroma cacao, L.) is cultivated in the humid tropics of Latin America, Africa and Asia. Cocoa-based agroforestry systems are the main source of income for smallholders' families and provide numerous ecological services and contribute to biodiversity conservation. These systems associate trees with crops simultaneously, in a wide and poorly described range of botanical and structural plant diversity. The current knowledge about their productivity is restricted to controlled trials with a low numer of associated plant species. Our work tests the hypothesis of a trade-off relationship between the level of cocoa productivity and the level of biodiversity hosted in cocoa-based agroforests. We characterize these trade-offs on a gradient of production situations, based on the vertical structure, the management intensity of the vegetal component and the bio-physical context of cocoa-based agroforests. On the base of a 36 on farm cocoa plots network located in Talamanca, Costa Rica, we show that significant variations in the vegetation vertical structure reflect farmer's management strategies and affect the cocoa yield per tree (295 to 667g/tree/year) but neither the cocoa yield per plot (136 kg/ha/year), nor the global plant volume (400 m3/ha). The variations in vegetation structure poorly affected the α-diversity of 7 plant and animal taxa, but their β-diversity gave contrasted and significant responses to habitat variations. Finally, the trade-offs relationships we display between dry cocoa productivity per hectare or per tree and the observed biodiversity levels showed contrasted forms (cubic, quadratic, linear) and tendances (positive, negative) according to the taxa considered and question results from recent publications. Our work also revealed optimal trade-off situations which offer positive prospects for the ecological intensification of tropical agroforestry systems
APA, Harvard, Vancouver, ISO und andere Zitierweisen
Wir bieten Rabatte auf alle Premium-Pläne für Autoren, deren Werke in thematische Literatursammlungen aufgenommen wurden. Kontaktieren Sie uns, um einen einzigartigen Promo-Code zu erhalten!

Zur Bibliographie