Thèses sur le sujet « PAR methodology »

Pour voir les autres types de publications sur ce sujet consultez le lien suivant : PAR methodology.

Créez une référence correcte selon les styles APA, MLA, Chicago, Harvard et plusieurs autres

Choisissez une source :

Consultez les 50 meilleures thèses pour votre recherche sur le sujet « PAR methodology ».

À côté de chaque source dans la liste de références il y a un bouton « Ajouter à la bibliographie ». Cliquez sur ce bouton, et nous générerons automatiquement la référence bibliographique pour la source choisie selon votre style de citation préféré : APA, MLA, Harvard, Vancouver, Chicago, etc.

Vous pouvez aussi télécharger le texte intégral de la publication scolaire au format pdf et consulter son résumé en ligne lorsque ces informations sont inclues dans les métadonnées.

Parcourez les thèses sur diverses disciplines et organisez correctement votre bibliographie.

1

Golra, Fahad Rafique. « A Refinement based methodology for software process modeling ». Télécom Bretagne, 2014. http://www.telecom-bretagne.eu/publications/publication.php?idpublication=14184.

Texte intégral
Résumé :
Il y a une tendance croissante à considérer les processus d'une organisation comme l'une de ses grandes forces. Les processus sont des ressources réutilisables d'une organisation qui définissent les procédures de travail pour la réalisation de ses objectifs. Avec l'importance croissante du secteur des logiciels et des services, la standardisation des processus devient indispensable pour maintenir sa crédibilité. Le développement de processus suit un cycle de vie très similaire à celui du développement logiciel. Par exemple, il se compose de plusieurs phases et suit une approche incrémentale qui mène à son amélioration continue. Cette approche incrémentale peut être complétée par une stratégie basée sur le raffinement pour développer, exécuter et maintenir les processus de développement de logiciels. Cette thèse propose une base conceptuelle pour le développement de processus logiciels par raffinement, sans perdre de vue les exigences spécifiques de chaque phase du cycle de vie d'un tel processus. Elle utilise l'ingénierie dirigée par les modèles pour présenter un ensemble de méta-modèles pour le développement de processus logiciels où chaque méta-modèle correspond à une phase différente d'un processus (spécification, implémentation et instanciation). Le modèle d'un processus traverse une série de raffinement jusqu'à ce qu'elle soit enrichie par des capacités d'exécution. Le développement d'un interpréteur permet d'exécuter ce modèle. Il donne la possibilité de relier les modèles des differentes phases par des liens de traçabilité. Les intervenants peuvent interagir avec le processus en exécution à l'aide d'une interface de supervision. Un niveau de variabilité incluse dans les modèles de processus permet leur adaptation pendant l'exécution. Tout en prenant en compte la nécessité de se conformer aux standards adoptés par l'organisation, l'architecture de l'approche de modélisation proposée exploite le concept d'abstraction en s'inspirant de la notion de composant logiciel pour aider à la réutilisation de modèles de processus. Notre méthode est également prévue pour les entreprises qui veulent suivre plusieurs standards pour le même projet. Sur la base des connaissances acquises grâce à l'étude des langages de modélisation actuels du domaine, le cadre proposé pour la modélisation de processus présente une architecture qui se développe autour des concepts de «conception par contrat» et «conception pour et par la réutilisation». Ceci permet de construire un modèle de processus qui a une structure modulaire et garantit la correction des interactions entre des activités constituantes. Afin de favoriser la séparation des préoccupations, les flux de données au sein d'un processus sont gérés à un niveau d'abstraction différent de celui des flux de contrôle. La conformité entre ces deux niveaux permet d'offrir une architecture bicouche. Le flux de données lors de l'exécution est assuré par un système de gestion d'événements. Une évaluation des capacités de l'approche proposée est fournie par une analyse basée sur l'ensemble des «workflow patterns». Cela permet une comparaison directe de ses capacités avec d'autres approches de modélisation de processus.
There is an increasing trend to consider the processes of an organization as one of its highly valuable assets. Processes are the reusable assets of an organization which define the procedures of routine working for accomplishing its goals. The software industry has the potential to become one of the most internationally dispersed high-tech industry. With growing importance of software and services sector, standardization of processes is also becoming crucial to maintain credibility in the market. Software development processes follow a lifecycle that is very similar to the software development lifecycle. Similarly, multiple phases of a process development lifecycle follow an iterative/incremental approach that leads to continuous process improvement. This incremental approach calls for a refinement based strategy to develop, execute and maintain software development processes. This thesis develops a conceptual foundation for refinement based development of software processes keeping in view the precise requirements for each individual phase of process development lifecycle. It exploits model driven engineering to present a multi-metamodel framework for the development of software processes, where each metamodel corresponds to a different phase of a process. A process undergoes a series of refinements till it is enriched with execution capabilities. Keeping in view the need to comply with the adopted standards, the architecture of process modeling approach exploits the concept of abstraction. This mechanism also caters for special circumstances where a software enterprise needs to follow multiple process standards for the same project. On the basis of the insights gained from the examination of contemporary offerings in this domain, the proposed process modeling framework tends to foster an architecture that is developed around the concepts of ``design by contract" and ``design for reuse". This allows to develop a process model that is modular in structure and guarantees the correctness of interactions between the constituent activities. Separation of concerns being the motivation, data-flow within a process is handled at a different abstraction level than the control-flow. Conformance between these levels allows to offer a bi-layered architecture that handles the flow of data through an underlying event management system. An assessment of the capabilities of the proposed approach is provided through a comprehensive patterns-based analysis, which allows a direct comparison of its functionality with other process modeling approaches
Styles APA, Harvard, Vancouver, ISO, etc.
2

Groux-Leclet, Dominique. « Une approche par plans et par modélisation du domaine appliquée à l'enseignement de la rhumatologie : le système ARIADE : Apprentissage de la Rhumatologie Intelligemment Assistée par orDinatEur ». Compiègne, 1993. http://www.theses.fr/1993COMP666S.

Texte intégral
Résumé :
Ce manuscrit fait état de l'étude et de la réalisation d'un système tutoriel, à base de connaissances, appliqué à la rhumatologie. Il a été entrepris avec le concours du service de médecine informatique de la faculté de Rennes. Le système ARIADE, pour Apprentissage de la Rhumatologie Intelligemment Assistée par orDinatEur, à pour but d'aider à la formation des étudiants en 4ème année de médecine. L’objectif est de concevoir un système capable d'abord de leur donner des connaissances sur le domaine et sur le raisonnement diagnostique de la rhumatologie, puis d'en vérifier et d'en évaluer l'acquisition. Ce travail de recherche se décompose de la façon suivante. En premier lieu, une étude a été menée sur l'enseignement de la médecine et le diagnostic médical. Puis, il s'est agi de modéliser et de mettre en oeuvre les connaissances du domaine de la rhumatologie à des fins d'enseignement du diagnostic. La phase suivante, en fait réalisée conjointement avec cette modélisation, a consisté à mettre à jour et à représenter les connaissances pédagogiques utiles. Enfin, un système informatique a été réalisé : il permet notamment de placer l'étudiant face à un cas clinique qu'il doit résoudre ; le système contrôle ses actions, lui fournit alors les informations et les explications utiles.
Styles APA, Harvard, Vancouver, ISO, etc.
3

Rekik, Saoussen. « Methodology for a model based timing analysis process for automotive systems ». Phd thesis, Université Paris Sud - Paris XI, 2011. http://tel.archives-ouvertes.fr/tel-00647906.

Texte intégral
Résumé :
Aujourd'hui, les applications automobiles sont devenues de plus en plus complexes avec des ressources limitées et plus de contraintes de temps et de safety. La vérification temporelle est effectuée très tard aujourd'hui au cours du processus de développement automobile (après l'implémentation et au cours de la phase d'intégration). Pour apporter des solutions aux problèmes du développement logiciel automobile, plusieurs approches de développement dirigé par les modèles ont été définit. Ces approches donnent des langages, des concepts et des méthodologies pour la description de l'architecture des systèmes automobiles. Cependant, ces approches ne donnent aucun guide méthodologique pour intégrer l'analyse temporelle (notamment l'analyse d'ordonnancement) tout au long du processus de développement. Ce travail de thèse propose de développer une méthodologie décrivant un processus d'analyse temporelle dirigé par les modèles. Cette méthodologie décrit les différentes phases du processus de développement dirigé par les modèles et comment l'analyse temporelle est effectuée durant chaque phase.
Styles APA, Harvard, Vancouver, ISO, etc.
4

Tecuci, Gheorghe. « Disciple : a theory, methodology and system for learning expert knowledge ». Paris 11, 1988. http://www.theses.fr/1988PA112209.

Texte intégral
Résumé :
DISCIPLE est un système qui illustre une théorie et une méthodologie d'apprentissage des connaissances expertes. Il est composé d'un système expert et d'un système d'apprentissage qui utilise une même base de connaissances. DISCIPLE part de connaissances élémentaires sur un domaine d'application (une théorie du domaine) et, au cours de sessions interactives de résolution de problèmes, apprend de règles générales à partir des solutions spécifiques fournies par l'expert humain. La méthode de résolution de problèmes combine la réduction de problèmes, l'utilisation de contraintes et l'analogie. Quant à l'apprentissage, DISCIPLE utilise différentes méthodes, en fonction de ses connaissances sur la solution de l'utilisateur. Cette solution est considérée comme un exemple pour apprendre une règle générale. Dans le cas d'une théorie complète sur l'exemple, DISCIPLE apprend à partir d'explications, ce qui augmente son efficacité. Dans le cas d'une théorie faible, il intègre l'apprentissage à partir d'explications, l'apprentissage par analogie et l'apprentissage empirique, développant ainsi sa compétence. Enfin, dans le cas d'une théorie incomplète, il apprend en combinant les deux méthodes précédentes, ce qui améliore tant sa compétence que son efficacité
This thesis presents DISCIPLE, a system illustrating a theory and a methodology for learning expert knowledge. DISCIPLE integrates a learning system and an empty expert system, both using the same knowledge base. It is provided with an initial domain theory and learns problem solving rules from the problem solving steps received from its expert user, during interactive problem solving sessions. In this way, DISCIPLE evolves from a helpful assistant in problem solving to a genuine expert. The problem solving method of DISCIPLE combines problem reduction, problem solving by constraints, and problem solving by analogy. The learning method of DISCIPLE depends of its knowledge about the problem solving step (the example) from which it learns. In the context of a complete theory about the example, DISCIPLE uses explanation­ based learning to improve its performance. In the context of a weak theory about the example, it synergistically combines explanation - based learning, learning by analogy, and empirical learning, developing its competence. In the context of an incomplete theory about the example, DISCIPLE learns by Combining the above mentioned methods, improving both its competence and performance
Styles APA, Harvard, Vancouver, ISO, etc.
5

Ramaswamy, Arunkumar. « A model-driven framework development methodology for robotic systems ». Thesis, Université Paris-Saclay (ComUE), 2017. http://www.theses.fr/2017SACLY011/document.

Texte intégral
Résumé :
La plupart des applications robotiques, telles que les véhicules autonomes, sont développées à partir d’une page blanche avec quelques rares réutilisations de conceptions ou de codes issus d’anciens projets équivalents. Qui plus est, les systèmes robotiques deviennent de plus en plus critiques, dans la mesure où ils sont déployés dans des environnements peu structurés, et centrés sur l’humain. Ces systèmes à fort contenu logiciel qui utilisent des composants distribués et hétérogènes interagissent dans un environnement dynamique, et incertain. Or, il s’agit là d’étapes indispensables pour la mise en place de méthodes d’évaluation extensibles, ainsi que pour permettre la réutilisation de composants logiciels pré-existants. Le développement de structures logicielles et d’outils de conception d’architectures, orientés pour la robotique, coûte cher en termes de temps et d’effort, et l’absence d’une approche systématique pourrait conduire à la production de conceptions adhoc, peu flexibles et peu réutilisables. Faire de la meta-structure de l’architecture un point de convergence offre de nouvelles possibilités en termes d’interopérabilité, et de partage de la connaissance, au sein des communautés dédiées à la mise en place d’architectures et de structures. Nous suivons cette direction, en proposant un modèle commun, et en fournissant une approche méthodologique systématique aidant à spécifier les différents aspects du développement d’architectures logicielles, et leurs relations au sein d’une structure partagée
Most innovative applications having robotic capabilities like self-driving cars are developed from scratch with little reuse of design or code artifacts from previous similar projects. As a result, work at times is duplicated adding time and economic costs. Absence of integrated tools is the real barrier that exists between early adopters of standardization efforts and early majority of research and industrial community. These software intensive systems are composed of distributed, heterogeneous software components interacting in a highly dynamic, uncertain environment. However, no significant systematic software development process is followed in robotics research. The process of developing robotic software frameworks and tools for designing robotic architectures is expensive both in terms of time and effort, and absence of systematic approach may result in ad hoc designs that are not flexible and reusable. Making architecture meta-framework a point of conformance opens new possibilities for interoperability and knowledge sharing in the architecture and framework communities. We tried to make a step in this direction by proposing a common model and by providing a systematic methodological approach that helps in specifying different aspects of software architecture development and their interplay in a framework
Styles APA, Harvard, Vancouver, ISO, etc.
6

Meziane, Aïcha. « Circulation et aeration engendrees par des mobiles d'agitation immerges a axe horizontal dans un chenal d'oxydation ». Toulouse, INSA, 1988. http://www.theses.fr/1988ISAT0026.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
7

Oliveira, Rodrigues Antonio Wendell de. « A methodology to develop high performance applications on GPGPU architectures : application to simulation of electrical machines ». Thesis, Lille 1, 2012. http://www.theses.fr/2012LIL10029/document.

Texte intégral
Résumé :
Les phénomènes physiques complexes peuvent être simulés numériquement par des techniques mathématiques. Ces simulations peuvent mener ainsi à la résolution de très grands systèmes. La parallélisation des codes de simulation numérique est alors une nécessité pour parvenir à faire ces simulations en des temps non-exorbitants. Le parallélisme s’est imposé au niveau des architectures de processeurs et les cartes graphiques sont maintenant utilisées pour des fins de calcul généraliste, aussi appelé "General-Purpose GPU", avec comme avantage évident l’excellent rapport performance/prix. Cette thèse se place dans le domaine de la conception de ces applications hautes-performances pour la simulation des machines électriques. Nous fournissons une méthodologie basée sur l’Ingénierie Dirigées par les Modèles (IDM) qui permet de modéliser une application et l’architecture sur laquelle l’exécuter, afin de générer un code OpenCL. Notre objectif est d’aider les spécialistes en algorithmes de simulations numériques à créer un code efficace qui tourne sur les architectures GPGPU. Pour cela, une chaine de compilation de modèles qui prend en compte plusieurs aspects du modèle de programmation OpenCL est fournie. De plus, nous fournissons des transformations de modèles qui regardent des niveaux d’optimisations basées sur les caractéristiques de l’architecture.Comme validation expérimentale, la méthodologie est appliquée à la création d’une application qui résout un système linéaire issu de la Méthode des Éléments Finis. Dans ce cas nous montrons, entre autres, la capacité de la méthodologie de passer à l’échelle par une simple modification de la multiplicité des unités GPU disponibles
Complex physical phenomena can be numerically simulated by mathematical techniques. Usually, these techniques are based on discretization of partial differential equations that govern these phenomena. Hence, these simulations enable the solution of large-scale systems. The parallelization of algorithms of numerical simulation, i.e., their adaptation to parallel processing architectures, is an aim to reach in order to hinder exorbitant execution times. The parallelism has been imposed at the level of processor architectures and graphics cards are now used for purposes of general calculation, also known as "General- Purpose GPU". The clear benefit is the excellent performance/price ratio. This thesis addresses the design of high-performance applications for simulation of electrical machines. We provide a methodology based on Model Driven Engineering (MDE) to model an application and its execution architecture in order to generate OpenCL code. Our goal is to assist specialists in algorithms of numerical simulations to create a code that runs efficiently on GPGPU architectures. To ensure this, we offer a compilation model chain that takes into account several aspects of the OpenCL programming model. In addition, we provide model transformations that analyze some levels of optimizations based on the characteristics of the architecture. As an experimental validation, the methodology is applied to the creation of an application that solves a linear system resulting from the Finite Element Method (FEM). In this case, we show, among other things, the ability of the methodology of scaling by a simple modification of the number of available GPU devices
Styles APA, Harvard, Vancouver, ISO, etc.
8

Quadri, Imran Rafiq. « MARTE based model driven design methodology for targeting dynamically reconfigurable FPGA based SoCs ». Phd thesis, Université des Sciences et Technologie de Lille - Lille I, 2010. http://tel.archives-ouvertes.fr/tel-00486483.

Texte intégral
Résumé :
Les travaux présentés dans cette thèse sont effectuées dans le cadre des Systèmes sur puce (SoC, Systemon Chip) et la conception de systèmes embarqués en temps réel, notamment dédiés au domaine de la reconfiguration dynamique, liés à ces systèmes complexes. Dans ce travail, nous présentons un nouveau flot de conception basé sur l'Ingénierie Dirigée par les Modèles (IDM/MDE) et le profilMARTE pour la conception conjointe du SoC, la spécification et la mise en oeuvre de ces systèmes sur puce reconfigurables, afin d'élever les niveaux d'abstraction et de réduire la complexité du système. La première contribution relative à cette thèse est l'identification des parties de systèmes sur puce reconfigurable dynamiquement qui peuvent être modélisées au niveau d'abstraction élevé. Cette thèse adapte une approche dirigée par l'application et cible les modèles d'application de haut niveau pour être traités comme des régions dynamiques des SoCs reconfigurables. Nous proposons aussi des modèles de contrôle générique pour la gestion de ces régions au cours de l'exécution en temps réel. Bien que cette sémantique puisse être introduite à différents niveaux d'abstraction d'un environnent pour la conception conjointe du SoC, nous insistons tout particulièrement sur sa fusion au niveau du déploiement, qui relie la propriété intellectuelle avec les éléments modélisés à haut niveau de conception. En outre, ces concepts ont été intégrés dans le méta-modèleMARTE et le profil correspondant afin de fournir une extension adéquate pour exprimer les caractéristiques de reconfiguration à la modélisation de haut niveau. La seconde contribution est la proposition d'un méta-modèle intermédiaire, qui isole les concepts présents au niveau transfert de registre (RTL-Register Transfer Level). Ce méta-modèle intègre les concepts chargés de l'exécution matérielle des applications modélisées, tout en enrichissant la sémantique de contrôle, provoquant la création d'un accélérateur matériel reconfigurable dynamiquement avec plusieurs implémentations disponibles. Enfin, en utilisant les transformations de modèlesMDE et les principes correspondants, nous sommes en mesure de générer des codeHDL équivalents à différentes implémentations de l'accélérateur reconfigurable ainsi que différents codes source en langage C/C++ liés au contrôleur de reconfiguration, qui est finalement responsable de la commutation entre les différentes mplémentations. Enfin, notre flot de conception a été vérifié avec succès dans une étude de cas liée à un système anti-radar de détection de collision. Une composante clé intégrante de ce système a été modélisée en utilisant les spécifications MARTE étendu et le code généré a été utilisé dans la conception et la mise en oeuvre d'un SoC sur un FPGA reconfigurable dynamiquement.
Styles APA, Harvard, Vancouver, ISO, etc.
9

Picot, Ondine. « Homoallylation énantiosélective d'aldéhydes par des diènes 1,3. Vers la synthèse de la (-)-spongidepsine ». Thesis, Université Paris sciences et lettres, 2020. http://www.theses.fr/2020UPSLS030.

Texte intégral
Résumé :
La (-)-spongidepsine est un cyclodepsipeptide isolé de l'éponge marine Spongia sp. Ce composé présente des activités cytotoxiques et antiprolifératives contre plusieurs lignées cellulaires cancéreuses. Jusqu'à présent, cinq synthèses totales et deux formelles ont déjà été rapportées, toutes comprenant une déconnexion de la (-)-spongidepsine en trois fragments : un acide carboxylique (C1-C5), un alcool bis-homoallylique (C6-C13) et la N-méthyl-phénylalanine. Notre objectif était de développer une synthèse flexible, efficace de la (-)-spongidepsine qui pourrait être utilisée afin d’avoir suffisamment de matière et effectuer des études biologiques et pour la préparation d'analogues. La synthèse du fragment acide a été réalisée selon une des procédures décrites. Pour accéder au fragment C6-C13, une homoallylation énantiosélective, sans précédent, d'aldéhydes par des diènes catalysée par un sel de nickel a été développée. La réaction a été réalisée en utilisant une combinaison de NiCl2avec des phosphoramidites énantio-enrichis, dérivés de BINOL, en présence d'un donneur d'hydrogène, le Et2Zn, et d'un diène 1,3. Une variété d'aldéhydes aromatiques, aliphatiques et α,β-insaturés a été transformée en alcools bis-homoallyliques correspondants avec des rendements et une énantiosélectivité modérés à bons. La méthode a été appliquée avec succès à la synthèse du fragment C6-C13 de la (-)-spongidepsine
-)-Spongidepsin is a cyclodepsipeptide isolated from the marine sponge Spongia sp. This compound exhibitscytotoxic and antiproliferative activities against several cancer cell lines. Until now, five total syntheses and two formal ones have already been reported, all of them including a disconnection of (-)-spongidepsin into three fragments: a carboxylic acid (C1-C5), a bis-homoallylic alcohol (C6-C13) and N-methyl-phenylalanine. Our objective was to develop a flexible, short and scalable synthesis of (-)-spongidepsin that could be used for further biological studies and for the preparation of analogs. The synthesis of the acid fragment was achieved according to reported procedure. To access the C6-C13 fragment, an unprecedented enantioselective nickel-catalyzed homoallylation of aldehydes with dienes was developed. The reaction was performed using a combination of NiCl2 with enantio enriched phosphoramidites derived from BINOL in the presence of a hydrogen donor, Et2Zn and a 1,3-diene. A range of aromatic, aliphatic and α,β-unsaturated aldehydes were transformed into the corresponding bis-homoallylic alcohols with moderate to good yields and enantioselectivity. The method was successfully applied to the synthesis of C6-C13 fragment of (-)-spongidepsin
Styles APA, Harvard, Vancouver, ISO, etc.
10

Kabalan, Bilal. « Systematic methodology for generation and design of hybrid vehicle powertrains ». Thesis, Lyon, 2020. http://www.theses.fr/2020LYSE1048.

Texte intégral
Résumé :
Pour répondre aux objectifs de consommation des flottes de véhicules, au normes d’émissions de polluants et aux nouvelles demandes de l’usager, les constructeurs automobiles doivent développer des motorisations hybrides et électriques. Réaliser une chaine de traction hybride reste cependant une tâche difficile. Ces systèmes sont complexes et possèdent de nombreuses variables réparties sur différents niveaux : architecture, technologie des composants, dimensionnement et contrôle/commande. L’industrie manque encore d’environnements et d’outils pouvant aider à l’exploration de l’ensemble de l’espace de dimensionnement et à trouver la meilleure solution parmi tous ces niveaux. Cette thèse propose une méthodologie systématique pour répondre au moins partiellement à ce besoin. Partant d’un ensemble de composants, cette méthodologie permet de générer automatiquement tous les graphes d’architectures possibles en utilisant la technique de programmation par contraintes. Une représentation dédiée est développée pour visualiser ces graphes. Les éléments de boites de vitesse (embrayages, synchroniseurs) sont représentés avec un niveau de détails approprié pour générer de nouvelles transmission mécaniques sans trop complexifier le problème. Les graphes obtenus sont ensuite transformés en d’autres types de représentation : 0ABC Table (décrivant les connections mécaniques entre les composants), Modes Table (décrivant les modes de fonctionnement disponibles dans les architectures) et Modes Table + (décrivant pour chaque mode le rendement et le rapport de réduction global des chemins de transfert de l’énergie entre tous les composants). Sur la base de cette représentation, les nombreuses architectures générées sont filtrées et seules les plus prometteuses sont sélectionnées. Elles sont ensuite automatiquement évaluées et optimisées avec un modèle général spécifiquement développé pour calculer les performances et la consommation de toute les architectures générées. Ce modèle est inséré dans un processus d’optimisation à deux niveaux ; un algorithme génétique GA est utilisé pour le dimensionnement des composants et la programmation dynamique est utilisée au niveau contrôle (gestion de l’énergie) du système. Un cas d’étude est ensuite réalisé pour montrer le potentiel de cette méthodologie. Nous générons ainsi automatiquement toutes les architectures qui incluent un ensemble de composants défini à l’avance, et le filtrage automatique élimine les architectures présupposées non efficaces et sélectionnent les plus prometteuses pour l’optimisation. Les résultats montrent que la méthodologie proposée permet d’aboutir à une architecture meilleure (consommation diminuée de 5%) que celles imaginées de prime abord (en dehors de toute méthodologie)
To meet the vehicle fleet-wide average CO2 targets, the stringent pollutant emissions standards, and the clients’ new demands, the automakers realized the inevitable need to offer more hybrid and electric powertrains. Designing a hybrid powertrain remains however a complex task. It is an intricate system involving numerous variables that are spread over different levels: architecture, component technologies, sizing, and control. The industry lacks frameworks or tools that help in exploring the entire design space and in finding the global optimal solution on all these levels. This thesis proposes a systematic methodology that tries to answer a part of this need. Starting from a set of chosen components, the methodology automatically generates all the possible graphs of architectures using constraint-programming techniques. A tailored representation is developed to picture these graphs. The gearbox elements (clutches, synchronizer units) are represented with a level of details appropriate to generate the new-trend dedicated hybrid gearboxes, without making the problem too complex. The graphs are then transformed into other types of representation: 0ABC Table (describing the mechanical connections between the components), Modes Table (describing the available modes in the architectures) and Modes Table + (describing for each available mode the global efficiency and ratio of the power flow between all the components). Based on these representations, the architectures are filtered and the most promising ones are selected. They are automatically assessed and optimized using a general hybrid model specifically developed to calculate the performance and fuel consumption of all the generated architectures. This model is inserted inside a bi-level optimization process: Genetic Algorithm GA is used on the sizing and components level, while Dynamic Programming DP is used on the control level. A case study is performed and the capability of the methodology is proven. It succeeded in automatically generating all the graphs of possible architectures, and filtering dismissed architectures that were then proven not efficient. It also selected the most promising architectures for optimization. The results show that the proposed methodology succeeded in finding an architecture better than the ones proposed without the methodology (consumption about 5% lower)
Styles APA, Harvard, Vancouver, ISO, etc.
11

Istoan, Paul. « Methodology for the derivation of product behaviour in a Software Product Line ». Phd thesis, Université Rennes 1, 2013. http://tel.archives-ouvertes.fr/tel-00925479.

Texte intégral
Résumé :
The major problem addressed in this thesis is the definition of a new SPLE methodology that covers both phases of the SPLE process and focuses on the derivation of behavioral models of SPL products. In Chapter 2 three research areas scope context of this thesis: Software Product Lines, Business Processes, and Model-Driven Engineering. Throughout Chapter 3, we propose a new SPLE methodology that focuses on the derivation of product behavior. We first describe the main flow of the methodology, and then detail the individual steps. In chapter 4 we propose a new domain specific language called CBPF created for modeling composable business process fragments. A model driven approach is followed for creating CBPF: definition of the abstract syntax, graphical concrete syntax and translational semantics. In Chapter 5 we propose several types of verifications that can be applied to business processfragments to determine their "correctness". For structural verification we definine a set of fragment consistency rules that should be valid for every business process fragment created with CBPF. To check behavioral correctness we first transform the business process fragment into an equivalent HCPN. We can then check generic properties but also define aset of fragment specific properties. In chapter 6 we exemplify the proposed SPL methodology by applying it to a case study from the crisis management system domain. We also propose a tool suite that supports our methodology. Chapter 7 describes possible improvements and extensions to the contributions of this thesis. We conclude the thesis in Chapter 8 and draw some conclusions.
Styles APA, Harvard, Vancouver, ISO, etc.
12

Daghsen, Ahmed. « Methodology of analysis and optimization of real-time embedded systems : application to automotive field ». Compiègne, 2013. http://www.theses.fr/2013COMP2062.

Texte intégral
Résumé :
Dans le domaine de l'automobile, le nombre de fonctions émergentes augmente sans cesse dans le but d'offrir une large gamme de confort et qualité de service au conducteur. La plupart de ces fonctions électroniques sont modulaires et réparties sur plusieurs composants du véhicule. La complexité de telles fonctions telles que le "X-By-Wire" ainsi que l'interdépendance entre ces fonctions rendent l'intégration et la validation de ces systèmes assez complexe. Face à ces problématiques, le consortium AUTOSAR (Automotive Open System ARchitecture) a été créé par les principaux acteurs mondiaux de l'automobile. Cette initiative vise la mise en place d'un standard ouvert pour l'architecture embarquée de l'automobile. La méthodologie proposée par AUTOSAR ainsi que les outils de développement existants ne permettent pas de guider le concepteur d'application à établir l'architecture adéquate et optimale du système. L'objectif de ces travaux de thèse est d'établir une méthodologie d'analyse et d'exploration à base des modèles afin de valider et optimiser les performances d'un système embarqué dans le but de guider le concepteur système. L'approche consiste en premier temps à valider analytiquement les performances temps-réel d'un système AUTOSAR. En second temps, nous proposons une nouvelle méthode d'exploration multi-objectives de l'espace de conceptions des architectures. La méthode d'optimisation repose sur un algorithme évolutionnaire multi-objectives. Nous proposons dans la suite l'exploration de trois espace de recherche identifiés durant le processus de développement AUTOSAR : (1) le placement des composants logiciel sur les calculateurs, (2) la configuration des tâches systèmes et (3) le placement des runnables (entités logicielles) sur les tâches. Aussi, la flexibilité et l'adaptabilité de la méthode d'exploration proposée permettent son application sur des systèmes conçus avec d'autres langages de modélisation tels que SysML et MARTE. Ainsi, nous proposons une méthode d'exploration et d'analyse plus générique. Cette méthode est basée sur un méta-modèle intermédiaire définis, et qui permettra une translation automatique entre le modèle d'entrée du système et les outils d'analyse et d'exploration
Today, the design and development of automotive software system becomes very complex. This complexity is due to the high number of functions, execution codes and diversity of communication bus embedded in the vehicle. Also, the heterogeneity of the architecture makes the design of such system more difficult and time consuming. The introduction of Model-Based Development (MBD) in the automotive field promised to improve the development process by allowing continuity between requirements definition, system design and the distributed system implementation. In the same direction, the apparition of AUTOSAR consortium standardized the design of such automotive embedded system by allowing the portability of software functions on the hardware architecture and their reuse. It defines a set of rules and interfaces to design, interconnect, deploy and configure a set of application software components (SWCs). However, designing an embedded system according to AUTOSAR standard necessitates the configuration of hundreds of parameters and requires several software allocation decisions. Each decision may influence the system performance and also the development cost. This architectural complexity leads to a large design decision space which is difficult to be explored without using an analytical method or a design tool. We introduce in this thesis a methodology that permits to assist and help the system designer to configure an AUTOSAR-compliant system. This is based on the Design Space Exploration (DSE) framework that permits to evaluate and analyze several design alternatives in order to identify the optimal solutions. The DSE task relies on a multi-objectives evolutionary algorithm. The DSE could be performed for two purposes : (1) the mapping of SWCs to ECUs and the mapping of runnables (code entities) to OS tasks, (2) the configuration of the software parameters like OS tasks priorities and types. The flexibility and scalability of the DSE framework allows applying it to other description and modeling languages such as SysML/MARTE
Styles APA, Harvard, Vancouver, ISO, etc.
13

Cerisier, Ambre. « Prédiction du comportement d'une réparation structurale collée en escalier : application d'une méthodologie par évaluateurs technologiques ». Thesis, Toulouse 3, 2017. http://www.theses.fr/2017TOU30120/document.

Texte intégral
Résumé :
La réparation collée est une problématique d'actualité compte tenu de la part croissante des matériaux composites dans les structures primaires aéronautiques. La littérature ouverte sur le sujet concerne des éprouvettes de taille élémentaire. Ce travail se propose de concevoir un évaluateur technologique représentatif de problématiques de grandes dimensions permettant d'étudier l'influence des procédés d'obtention sur le comportement de l'interface collée d'une réparation structurale en escalier. Afin d'atteindre cet objectif, une grande partie du travail consiste en la mise en place d'une stratégie numérique dite " légère " adaptée à l'étude de structures réparées multi-marches de taille représentative. Ce travail numérique se nourrit d'études préliminaires effectuées sur des éprouvettes élémentaires qui permettent de dégager un indicateur de rupture mixte du film adhésif. Une fois les choix numériques validés, ils sont appliqués pour la conception d'un évaluateur ainsi que d'une cinématique de chargement destinée à solliciter jusqu'à rupture la zone de collage en conditions choisies. L'évaluateur et sa cinématique sont testés grâce à un bâti multiaxial associé à une multi-instrumentation
Bonded repair is an issue more and more brought to attention in the aeronautical industry due to the rise of composite materials in primary structures. If most studies in the literature are focused on bonded interface on small-sized coupons, this PhD dissertation intends to design a technological evaluator that represents issues due to their wide sizes, which would enable the study of the influence of several processes on the behavior of the bonded interface of a structural step-lap repair. In order to reach this goal, a major part of the work involved the setting up of a numerical strategy, light in CPU time and adapted to the study of a multi-step repaired structure, with representative dimensions. This numerical step is fed by upstream studies, done on coupons, and that lead us to find a mixed failure indicator of the adhesive film. Once the numerical choices validated, they were applied to find the design of a technological evaluator, as well as its loading kinematics, meant to place the latter in a representative industrial situation. They were both tested thanks to a multi axial test machine
Styles APA, Harvard, Vancouver, ISO, etc.
14

Soklou, Kossi Efouako. « Synthèse d'hétérospirocycles par hydroaminations et hydroalkoxylations d'alcynes catalysées par l'or (I) - Méthodologie et application au développement de fragments spirocycliques pour la chimie médicinale ». Thesis, Orléans, 2020. http://www.theses.fr/2020ORLE3066.

Texte intégral
Résumé :
Synthétiser des molécules azotées ou oxygénées spiro [4.5] ou spiro [5.5] possédant une liaison entre le carbone spiranique et l’atome d’azote ou d’oxygène reste un défi même si ces fragments sont représentés dans la nature et dans l’arsenal thérapeutique. Pour lever cette contrainte, nous avons développé une méthode générale de spirocyclisation catalysée par l’or (I) passant par des réactions d’hydroamination ou d’hydroalkoxylation d’alcynes. Dans la première partie de cette thèse, nous avons pu optimiser les conditions de spirocyclisation à base de JohnPhosAu(CH3CN)SbF6 en série azotée et oxygénée avec les alcynes vrais, puis accéder à des spirocycles tricycliques originaux par des réactions en cascade. Nous avons également démontré la robustesse de notre méthode vis-à-vis des composés chiraux. Dans la deuxième partie de ce travail, la méthode de spirocyclisation a été étendue aux alcynes disubstitués grâce au couple JohnPhosAuCl/AgNTf2. Dans la troisième partie, nous avons effectué la transformation des spirocycles afin d’accroître la diversité moléculaire. Pour ce faire, des réactions de Mizoroki-Heck intramoléculaires ont fourni des spirocycles tétracycliques originaux et stables tandis que d’autres réactions comme des réductions ont, en plus de la stabilité, accru leur tridimensionnalité. Avec tous ces fragments, un programme de chimie médicinale a été engagé et des actifs à motifs spirocycliques ont été élaborés comme inhibiteurs sélectifs de kinases
The synthesis of spiro [4.5] or [5.5] nitrogen or oxygen containing molecules with a bond between the carbon spirocenter and the nitrogen or oxygen atom remains a challenge, even if these fragments are represented in nature as well as in the therapeutic arsenal. To overcome this constraint, we have developed a general method of gold (I) catalyzed spirocyclization through the hydroamination or hydroalkoxylation of alkynes. In the first part of this thesis, we optimized spirocycle formation in both the nitrogen and oxygen series using conditions based on JohnPhosAu(CH3CN)SbF6 with unsubstituted alkynes. This also gave access to original tricyclic spirocycles by cascade reactions. We then demonstrated the robustness of our method with respect to chiral compounds. In the second part of this work, the spirocyclization method was extended to di-substituted alkynes using the combined JohnPhosAuCl/AgNTf2 catalyst. In the third part, we transformed our different spirocycles to increase molecular diversity. Intramolecular Mizoroki-Heck reactions provided original and stable tetracyclic spirocycles while other reactions such as double bond reduction increased both stability and 3D molecular space. With these fragments in hand, a medicinal chemistry program was initiated and spirocyclic compounds were developed as selective kinase inhibitors
Styles APA, Harvard, Vancouver, ISO, etc.
15

Erramli, Hassane. « Développement des techniques de dosimétrie appliquées à la datation par thermoluminescence ». Clermont-Ferrand 2, 1986. http://www.theses.fr/1986CLF21045.

Texte intégral
Résumé :
Étude de la dosimétrie des rayonnements d'origine naturelle dans laquelle duex composantes peuvent être distinguées. Dose interne apportée par les rayonnements de faible parcours issus de l'échantillon considéré. Dose externe apportée par les rayonnements de grand pouvoir de pénétration et provenent de l'environnement de l'échantillon. Deux techniques sont traitées en détail: Dosimétrie thermoluminescents et spectrométrie gamma de terrain. Corrections liées à l'environnement et aux conditions d'emploi
Styles APA, Harvard, Vancouver, ISO, etc.
16

Caillard, Pierre. « Conception par optimisation d'une chaine de traction électrique et de son contrôle par modélisation multi-physique ». Thesis, Ecole centrale de Lille, 2015. http://www.theses.fr/2015ECLI0025/document.

Texte intégral
Résumé :
Les travaux de cette thèse portent sur la méthodologie de conception par optimisation d’une chaine de traction de véhicule électrique en phase amont du développement. Dan une première partie, nous avons abordé le contexte environnemental du transport afin d poser la problématique de la conception systémique d’une chaine de traction électrique composée d’une transmission, une machine électrique asynchrone, un onduleur et un batterie. Le cas test est celui du Renault Twizy. La seconde partie explore les possibilité de modélisation puis détaille les modèles analytiques qui ont été choisis pour chaque composant. L’assemblage de ces modèles permet une estimation de l’autonomie d véhicule, au travers du calcul des pertes des composants, et du cout de la chaine d traction. La troisième partie est consacrée aux méthodes et stratégies d’optimisation afin d pouvoir exploiter le modèle système en incluant le cycle de roulage, le contrôle de l machine électrique et les différentes physiques des composants, tout en conservant de temps de calcul raisonnable. Enfin, la dernière partie présente des résultats d’optimisation en comparant différents jeux de variables et objectifs, soulignant l’importance d’un conception systémique. Des essais sur banc permettent de valider les hypothèses qui on été posées
The works of this thesis concern the optimal design methodology of an electric vehicl powertrain, in early development phase. The first part of this report introduces th environmental context of transportation in order to assess the problem of system design o an electric powertrain which includes a transmission, an induction machine, an inverter an a battery. The selected study case is a Renault Twizy. The second part deals with modelin choices and details the analytic models of the components. Then these models are pu together to get an estimate of the vehicle range, by calculating the components’ losses an the powertrain cost. The third part is devoted to methods and optimization strategies wit the objective to use the systemic model with driving cycles, electric machine control and th physics of each component, without increasing too much computing times. The final par presents results from optimal designs, by comparing several variables or objectives sets Results show how significant the systemic design is. Experiments on a test bench allow validating the hypothesis that have been made
Styles APA, Harvard, Vancouver, ISO, etc.
17

Zhang, Jiaping. « Oxidation protection of carbon/carbon composites and non-destructive characterization methodology development ». Thesis, Sorbonne université, 2019. http://www.theses.fr/2019SORUS439.

Texte intégral
Résumé :
Les composites de carbone renforcés de fibres de carbone (C/C) possèdent de nombreuses propriétés uniques, telles qu'une faible densité (< 2.0 g/cm3), une résistance/module spécifique élevé, un faible coefficient de dilatation thermique et une excellente résistance aux chocs thermiques. Ils ont été utilisés comme matériaux structurels dans les boucliers thermiques des véhicules et les freins des avions. Cependant, le carbone est sensible à l'oxydation à haute température. L'idée principale de cette thèse est de développer une technologie de protection contre l'oxydation/ ablation pour C/C, qui proposait une technologie de revêtement et une modification de la matrice. concevoir une interface de couplage revêtement/substrat. En outre, afin de mieux évaluer la fiabilité de service du revêtement, des interférences de Kossel d'émissions de rayons X induites par un proton combinées à une réflectivité des rayons X, en tant que nouvelle méthode de caractérisation non destructive, ont été développées. La faisabilité de cette méthode a été confirmée dans les films de guides d'ondes planaires. Cette méthodologie est prometteuse pour nous d’évaluer la fiabilité de service de multicouches HfC/SiC/HfC pour C/C en application réelle. Pour la technologie de modification de matrice, les céramiques HfB2 et HfB2-SiC ont été introduites dans un substrat C/C. Combinés à l'analyse thermogravimétrique et à la mesure des performances d'oxydation/ablation, le rôle des céramiques HfB2 et HfB2-SiC a été examiné
Carbon fiber reinforced carbon composites (C/C) possess many unique properties, such as low-density (< 2.0 g/cm3), high specific strength/modulus, low coefficient of thermal expansion and excellent thermal shock resistance. They have been used as the structural materials in vehicle heat shields and aircraft brakes. However, carbon is sensitive to oxidation at high temperature. The main idea of this thesis is to develop oxidation/ablation protection technology for C/C, where coating technology and matrix modification were proposed. To improve the adhesive strength and relieve the thermal expansion mismatch between the coating and the substrate, blasting treatment was proposed to design an interlock coating/substrate interface. Additionally, to better evaluate the service reliability of the coating, Kossel interferences of proton-induced X-ray emissions combined with X-ray reflectivity, as a novel non-destructive characterization method, were developed. The feasibility of this method was confirmed in planar waveguides films. This methodology is promising for us to evaluate the service reliability of HfC/SiC/HfC multilayer for C/C in actual application. For the matrix modification technology, HfB2 and HfB2-SiC ceramics were introduced into C/C substrate. Combined with thermogravimetric analysis and oxidation/ablation performance measurement, the role of HfB2 and HfB2-SiC ceramics were discussed
Styles APA, Harvard, Vancouver, ISO, etc.
18

Nasser, Yehya. « An Efficient Computer-Aided Design Methodology for FPGA&ASIC High-Level Power Estimation Based on Machine Learning ». Thesis, Rennes, INSA, 2019. http://www.theses.fr/2019ISAR0014.

Texte intégral
Résumé :
Aujourd’hui, des systèmes numériques avancés sont nécessaires pour mettre en œuvre des fonctionnalités complexes. Cette complexité impose au concepteur de respecter différentes contraintes de conception telles que la performance, la surface, la consommation électrique et le délai de mise sur le marché. Pour effectuer une conception efficace, les concepteurs doivent rapidement évaluer les différentes architectures possibles. Dans cette thèse, nous nous concentrons sur l’évaluation de la consommation d’énergie afin de fournir une méthode d’estimation de puissance rapide, précise et flexible. Nous présentons NeuPow qui est une méthode s’appliquant aux FPGA et ASIC. Cette approche système est basée sur des techniques d’apprentissage statistique.Notamment, nous exploitons les réseaux neuronaux pour aider les concepteurs à explorer la consommation d’énergie dynamique. NeuPow s’appuie sur la propagation des signaux à travers des modèles neuronaux connectés pour prédire la consommation d’énergie d’un système composite à haut niveau d’abstraction. La méthodologie permet de prendre en compte la fréquence de fonctionnement et les différentes technologies de circuits (ASIC et FPGA). Les résultats montrent une très bonne précision d’estimation avec moins de 10% d’erreur relative indépendamment de la technologie et de la taille du circuit. NeuPow permet d’obtenir une productivité de conception élevée. Les temps de simulation obtenus sont significativement améliorés par rapport à ceux obtenus avec les outils de conception conventionnels
Nowadays, advanced digital systems are required to address complex functionnalities in a very wide range of applications. Systems complexity imposes designers to respect different design constraints such as the performance, area, power consumption and the time-to-market. The best design choice is the one that respects all of these constraints. To select an efficient design, designers need to quickly assess the possible architectures. In this thesis, we focus on facilitating the evaluation of the power consumption for both signal processing and hardware design engineers, so that it is possible to maintain fast, accurate and flexible power estimation. We present NeuPowas a system-level FPGA/ASIC power estimation method based on machine learning. We exploit neural networks to aid the designers in exploring the dynamic power consumption of possible architectural solutions. NeuPow relies on propagating the signals throughout connected neural models to predict the power consumption of a composite system at high-level of abstractions. We also provide an upgraded version that is frequency aware estimation. To prove the effectiveness of the proposed methodology, assessments such as technology and scalability studies have been conducted on ASIC and FPGA. Results show very good estimationaccuracy with less than 10% of relative error independently from the technology and the design size. NeuPow maintains high design productivity, where the simulation time obtained is significantly improved compared to those obtained with conventional design tools
Styles APA, Harvard, Vancouver, ISO, etc.
19

JARDIM, Ronandry dos Santos. « Uso de Cymbopogon citratus no controle de Rhipicephalus microplus aplicado ao Ensino T?cnico no Instituto Federal do Par ? e sua difus?o na extens?o rural ». Universidade Federal Rural do Rio de Janeiro, 2017. https://tede.ufrrj.br/jspui/handle/jspui/2270.

Texte intégral
Résumé :
Submitted by Jorge Silva (jorgelmsilva@ufrrj.br) on 2018-05-03T21:21:46Z No. of bitstreams: 1 2017 - Ronandry dos Santos Jardim.pdf: 1388007 bytes, checksum: afd505b9cd8923ab58f1ee181aba3393 (MD5)
Made available in DSpace on 2018-05-03T21:21:46Z (GMT). No. of bitstreams: 1 2017 - Ronandry dos Santos Jardim.pdf: 1388007 bytes, checksum: afd505b9cd8923ab58f1ee181aba3393 (MD5) Previous issue date: 2017-07-18
This work deals with how the technology of phytotherapeutic use can be effective in combating bovine ticks as a means of demonstrating how the research can be used to construct a meaningful knowledge, theoretically supporting the conception of research as an educational principle of Demo (2011) and meaningful learning, Ausubel (1982). It was highlighted the diffusion of this technology among the students of the course and community in general. The objective of this study is to evaluate the contribution of the use of an alternative to control the bovine tick, as a teaching method in students' learning, about the importance, use and diffusion of the phytotherapic in tick control. For the development of this work, the research-action modality according to Kemmis and MC Taggart, (1988) was used methodologically and the qualitative approach in the experiments in the laboratory by means of visualization of the effectiveness of the phytotherapic for test of efficiency and the hatchability of the Rhipicephalus (Boophilus) microplus teleglion eggs similar to the work developed by Heimerdinger (2005). Also, in the reading of the data this study is inserted in the qualitative approach having as a technique for data analysis the content analysis Laurence Bardin (2009). The subjects of the research were three students from the Agricultural Technical Course Integrated to the High School of the IFPA / CRMB who effectively participated in the researches in the laboratory and in the field, and 30 students of the same course who participated in the diffusion of the knowledge in the classroom. This study demonstrated that the use of research as an educational principle aroused the interest of as many students directly involved in the research as of students in the classroom, thus producing a significant knowledge for these students.
Este trabalho trata sobre como a tecnologia do uso do fitoter?pico pode ser eficaz no combate ao carrapato bovino, como meio de demonstrar como a pesquisa pode ser utilizada para constru??o de um conhecimento significativo, respaldando-se teoricamente na concep??o de pesquisa como princ?pio educativo de Demo (2011) e aprendizagem significativa, Ausubel (1982). Teve como ponto de destaque a difus?o desta tecnologia entre os educandos do curso e comunidade em geral. Apresenta como objetivo avaliar as contribui??es do uso de uma alternativa para controle do carrapato bovino, como m?todo did?tico na aprendizagem dos estudantes, sobre a import?ncia, uso e difus?o do fitoter?pico no controle de carrapato. Para o desenvolvimento deste trabalho utilizou-se metodologicamente a modalidade de pesquisa-a??o de acordo com Kemmis e MC Taggart, (1988) e a abordagem qualitativa nos experimentos no laborat?rio por meio de visualiza??o da efic?cia do fitoter?pico para teste de efici?ncia e a eclodibilidade dos ovos de tele?gina de Rhipicephalus (Boophilus) microplus semelhante ao trabalho desenvolvido por Heimerdinger (2005). E ainda, na leitura dos dados este estudo se insere na abordagem qualitativa tendo como t?cnica para an?lise dos dados a an?lise dos conte?dos Laurence Bardin (2009). Os sujeitos da pesquisa foram tr?s alunos do curso T?cnico em Agropecu?ria Integrada ao Ensino M?dio do IFPA/CRMB que participaram efetivamente das pesquisas em laborat?rio e em campo, e 30 alunos do mesmo curso que participaram da difus?o do conhecimento em sala de aula. Este estudo demonstrou que a utiliza??o da pesquisa como princ?pio educativo despertando o interesse tantos dos estudantes envolvidos diretamente na pesquisa, quanto dos estudantes em sala de aula, produzindo assim um conhecimento significativo para estes estudantes.
Styles APA, Harvard, Vancouver, ISO, etc.
20

LOUAHALA, SAM. « Signatures spectrales de roches en milieu tempere : valeurs reelles et valeurs percues par le satellite ». Paris 7, 1988. http://www.theses.fr/1988PA077109.

Texte intégral
Résumé :
Etude automatique des donnees de teledetection multispectrale pour la cartographie en provence a partir de mesures spectroradiometriques qui donnent les caracteristiques spectrales de surfaces rocheuses naturelles. Le role de la rugosite sur les mesures de reflectance est mis en evidence a partir de mesures realisees sur des plages de galets de granulometrie differentes, il est confirme par simulation numerique. Une comparaison entre mesures au sols et mesures satellitaires est effectuee afin d'evaluer les corrections atmospheriques necessaires pour des petites cibles. Une methode de reduction des variations d'eclairement des cibles est testee. Des ameliorations de resolution spectrale ne peuvent etre envisagee sans amelioration de resolution spatiale
Styles APA, Harvard, Vancouver, ISO, etc.
21

Kwassi, Elvis Daakpo. « Proposition d'une méthodologie pour l'optimisation de formes structures mécaniques ». Thesis, Reims, 2012. http://www.theses.fr/2012REIMS007.

Texte intégral
Résumé :
L’optimisation de formes de structures mécaniques est de nos jours incontournable dans l’industrie mécanique (automobile, aéronautique etc.). Pour rester dans la compétition mondiale, les entreprises se doivent de concevoir des structures qui, en plus de respecter des performances mécaniques précises, doivent être moins couteuses avec des délais de plus en plus courts. Les ingénieurs doivent alors réaliser des formes pour leurs structures qui soient un meilleur compromis entre les performances mécaniques et fonctionnelles, le poids, le coût de fabrication etc. Dans ce manuscrit, nous proposons une démarche d’intégration de l’optimisation de formes de structures dans un processus de conception fonctionnelle d'un point de vue méthodologique. Elle a pour avantages de prendre en compte l’intégration des connaissances métiers nécessaires à la conception de la structure dans le processus d’optimisation. Ce processus ne peut être appliqué de manière efficace que si l’on maitrise les fondamentaux de l’optimisation, ce qui nous a conduit dans un premier temps à faire un point sur l’état de l’art en optimisation de formes en général, en présentant les algorithmes mis en jeux dans les différentes disciplines à disposition des ingénieurs. Notre proposition de processus d’optimisation a été complétée par des arbres de décision, permettant à l’ingénieur de faire des choix en fonction des problèmes d’optimisation dans les métiers de la fonderie, de la plasturgie et de l’emboutissage. Ce processus d’optimisation intégré à une démarche de conception fonctionnelle sera illustré par des exemples industriels nous permettant de valider notre proposition et de montrer l’efficacité des choix issus des arbres de décision
Engineering design optimization of mechanical structures is nowadays essential in the mechanical industry (automotive, aeronautics etc.). To remain competitive in the globalized world, companies need to create and design structures that in addition to complying specific mechanical performance should be less expensive with short production time. Engineers must then realize forms and shapes that are a better compromise, between mechanical and functional performance, weight, manufacturing costs etc. In this manuscript, we propose an integration of optimization process in a functional process design of a methodological point of view. It has the advantage of taking into account the integration of business knowledge needed to design the structures in the optimization process. The process can’t be properly applied only if we master the fundamentals of the optimization. This led us in a first time, to talk about the engineering design optimization of mechanical structures in general, and the algorithms used in the different disciplines available to engineers. Our proposed optimization process was completed by decision trees that allowed the engineers to make choices based on their optimization problems in foundry, plastics and stamping companies. This optimization process integrated with a functional design approach will be illustrated with industrial examples that allow us to validate our proposal and demonstrate the effectiveness of the choices from decision trees
Styles APA, Harvard, Vancouver, ISO, etc.
22

Cabanes, Quentin. « New hardware platform-based deep learning co-design methodology for CPS prototyping : Objects recognition in autonomous vehicle case-study ». Electronic Thesis or Diss., université Paris-Saclay, 2021. http://www.theses.fr/2021UPASG042.

Texte intégral
Résumé :
Les Systèmes Cyber-Physiques (SCP) sont un sujet de recherche mature qui interagissent avec l'intelligence artificielle (IA) et les systèmes embarqués (SE). Un SCP peut être défini comme un SE en réseau qui peut analyser un environnement physique, via des capteurs, et prendre des décisions à partir de son état actuel pour l'affecter vers un résultat souhaité, via des actionneurs. Ces SCP nécessitent des algorithmes puissants associés à des architectures matérielles robustes. D'une part, l'Apprentissage en Profondeur (AP) est proposé comme algorithme principal. D'autre part, les méthodologies de conception et de prototypage standard pour SE ne sont pas adaptées au SCP moderne basé sur de l'AP. Dans cette thèse, nous étudions la conception d'IA pour SCP autour de l'AP embarquée avec une plate-forme hybride CPU/FPGA. Nous avons proposé une méthodologie pour développer des applications d'AP pour SCP qui est basée sur l'utilisation d'un accélérateur de réseau de neurones et d'un logiciel d'automatisation pour accélérer le temps de prototypage. Nous présentons la conception et le prototypage de notre accélérateur matériel de réseau de neurones. Enfin, nous validons notre travail à l'aide d'un cas d'usage: un LIDAR (LIght Detection And Ranging) intelligent. Ce cas d'usage est accompagné de plusieurs algorithmes de détection de piétons à l'aide du nuage de points 3D d'un LIDAR
Cyber-Physical Systems (CPSs) are a mature research technology topic that deals with Artificial Intelligence (AI) and Embedded Systems (ES). A CPS can be defined as a networked ES that can analyze a physical environment, via sensors, and make decisions from its current state to affect it toward a desired outcome via actuators. These CPS deal with data analysis, which need powerful algorithms combined with robust hardware architectures. On one hand, Deep Learning (DL) is proposed as the main solution algorithm. On the other hand, the standard design and prototyping methodologies for ES are not adapted to modern DL-based CPS. In this thesis, we investigate AI design for CPS around embedded DL using a hybrid CPU/FPGA platform. We proposed a methodology to develop DL applications for CPS which is based on the usage of a neural network accelerator and an automation software to speed up the prototyping time. We present our hardware neural network accelerator design and prototyping. Finally, we validate our work using a smart LIDAR (LIght Detection And Ranging) application use-case with several algorithms for pedestrians detection using a 3D point cloud from a LIDAR
Styles APA, Harvard, Vancouver, ISO, etc.
23

Ochoa, Ruiz Gilberto. « A high-level methodology for automatically generating dynamically reconfigurable systems using IP-XACT and the UML MARTE profile ». Phd thesis, Université de Bourgogne, 2013. http://tel.archives-ouvertes.fr/tel-00932118.

Texte intégral
Résumé :
The main contribution of this thesis consists on the proposition and development a Model-driven Engineering (MDE) framework, in tandem with a component-based approach, for facilitating the design and implementation of Dynamic Partially Reconfigurable (DPR) Systems-on-Chip. The proposed methodology has been constructed around the Metadata-based Composition Framework paradigm, and based on common standards such as UML MARTE and the IEEE IP-XACT standard, an XML representation used for storing metadata about the IPs to be reused and of the platforms to be obtained at high-levels of abstraction. In fact, a componentizing process enables us to reuse the IP blocks, in UML MARTE, by wrapping them with PLB (static IPs) and proprietary (DPR blocks) interfaces. This is attained by reflecting the associated IP metadata to IP-XACT descriptions, and then to UML MARTE templates (IP reuse). Subsequently, these IP templates are used for composing a DPR model that can be exploited to create a Xilinx Platform Studio FPGA-design, through model transformations. The IP reflection and system generation chains were developed using Sodius MDWorkbench, an MDE tool conceived for the creation and manipulation of models and their meta-models, as well as the definition and execution of the associated transformation rules.
Styles APA, Harvard, Vancouver, ISO, etc.
24

Dary, Chhavarath. « Mise au point des espèces du genre Stephania au Cambodge : études systématique, phytochimique et pharmacologique ». Thesis, Aix-Marseille, 2016. http://www.theses.fr/2016AIXM5502/document.

Texte intégral
Résumé :
L’objectif de la thèse est une mise au point des espèces de Stephania répertoriées au Cambodge par l’étude systématique, phytochimique et pharmacologique. Du point de vue systématique, les travaux ont permis de répertorier sept espèces et deux variétés de Stephania au Cambodge : S. cambodica, S. japonica var. discolor et var. timoriensis, S. oblata, S. pierrei, S. rotunda (espèce-type), S. suberosa, et S. venosa. La clef de détermination établie lors de ce travail de thèse permet d’identifier ces espèces. D’après les résultats phylogénétiques, seul S. pierrei est monophylétique, ce qui représente moins de 10% des espèces de Stephania. L’étude chimique de cinq espèces a été réalisée par des méthodes chromatographiques (CLHP, UCLHP) et des méthodes spectroscopiques. Différents alcaloïdes ont été proposés comme marqueurs : la palmatine, la roémérine et la tétrahydropalmatine pour S. cambodica et S. rotunda, la cépharanthine, la tétrahydropalmatine et la xylopinine pour S. suberosa, la cépharanthine pour S. pierrei, la crébanine, et la tétrahydropalmatine pour S. venosa. Neuf alcaloïdes ont été isolés à partir du tubercule de S. cambodica, dont un nouveau composé dénommé «angkorwatine ». Une méthode d’éco-extraction des alcaloïdes assistée par ultrasons a été mise au point et optimisée par un plan d’expérience pour cette espèce. Une méthode analytique par UCLHP a été développée et validée pour le contrôle qualité de S. cambodica. Les résultats montrent que les extraits hydroéthanoliques obtenus par macération à partir du tubercule de S. suberosa, S. venosa et S. rotunda présentent une activité anti-inflammatoire importante (in vitro) avec un ratio anti-inflammatoire élevé
The thesis aims to provide update on species of the genus Stephania recorded in Cambodia by systematic, phytochemical and pharmacological studies.The systematic study allowed to list seven species and two varieties of Stephania in Cambodia: S. cambodica, S. japonica var. discolor and var. timoriensis, S. oblata, S. pierrei, S. rotunda (type species), S. suberosa and S. venosa. The presence of S. japonica var. timoriensis and S. oblata is reported for the first time in Cambodia. According to the phylogenetic results, only S. pierrei is monophyletic, which represents less than 10% of species in the genus Stephania. Chemical studies on the tubers of five species were carried out using chromatographic methods (HPLC, UHPLC) and spectroscopic methods. Different isolated alkaloids have been proposed as markers: palmatine, roemerine and tetrahydropalmatine for S. cambodica and S. rotunda, cepharanthine, tetrahydropalmatine, and xylopinine for S. suberosa, cepharanthine for S. pierrei, crebanine, and tetrahydropalmatine for S. venosa. Nine alkaloids belonging to five classes were isolated from the tuber of S. cambodica and a new compound namely "angkorwatine" was described. Ultrasound assisted extraction of alkaloids was developed and optimized by Design of Experiment for this species. This innovative extraction is a good alternative to conventional methods. An analytical UHPLC method was developed and validated for the quality control of S. cambodica. Results show that hydroethanolic extracts obtained by maceration of S. suberosa, S. rotunda and S. venosa exhibit significant anti-inflammatory activity with high anti-inflammatory ratio (selectivity index)
Styles APA, Harvard, Vancouver, ISO, etc.
25

Bouju, Élodie. « Eco-purification de produits naturels par CPC : changement d'échelle et solvants alternatifs ». Thesis, Lyon 1, 2015. http://www.theses.fr/2015LYO10220/document.

Texte intégral
Résumé :
L'objectif de cette thèse est de mettre en place des outils permettant l'éco-purification de produits naturels par chromatographie de partage centrifuge (CPC), une technique préparative permettant la séparation de composés grâce à un système solvant constitué de deux liquides non miscibles. Ce manuscrit expose dans un premier temps une brève présentation des différentes techniques préparatives fréquemment utilisées pour la purification de produits naturels, puis détaille la technique de chromatographie de partage centrifuge. Le concept de chimie verte est alors introduit avant d'exposer la manière dont il sera pris en compte par la suite. Ainsi, un développement de méthode CPC à petite échelle, dans le but de limiter la consommation de solvants et la production de déchets, tout en limitant la consommation d'énergie, est illustré par la purification du carnosol issu du romarin. Par la suite, une nouvelle méthodologie de changement d'échelle en CPC est introduite, afin de pouvoir augmenter de manière efficace la productivité d'une méthode de purification, sans avoir à la redévelopper à grande échelle. L'utilisation de cette méthodologie peut notamment permettre à un utilisateur CPC de réduire considérablement sa consommation de solvants et d'énergie, tout comme sa génération de déchets chimiques. Cette méthodologie de changement d'échelle est appliquée dans le cadre de la purification du carnosol développée en amont. Enfin, la dernière partie de ces travaux est consacrée à la substitution de solvants d'origine pétrolière, par des solvants plus respectueux de l'environnement, principalement d'origine agro-sourcée
The main objective of this thesis is to propose some clues for natural products eco-purification by centrifugal partition chromatography (CPC), a preparative separation technique that uses a biphasic solvent system. First, the manuscript describes the differents preparative techniques commonly used for natural products purification. Then, the centrifugal partition chromatography technique is detailed. The green chemistry concept is subsequently introduced and discussed in regard to its application in purification process. A method development is realized on a small scale CPC, illustrating the reduction of solvent consumption and waste production, through the carnosol purification from rosemary. Later, a new scale-up methodology for CPC is introduced to efficiently transfer the method on larger instrument and increase production. This new methodology will allow for a CPC user to reduce solvent and energy consumption and chemical wastes discharges. This scale-up methodology is then applied to carnosol purification from a rosemary solid extract. Finally, the last part of this manuscript is devoted to petroleum solvents substitution by more environmentally friendly solvents like bio-sourced solvents
Styles APA, Harvard, Vancouver, ISO, etc.
26

Zarrouk, Hajer. « The impact of problem-based learning methodology on learners of English for Academic Medical Purpose ». Thesis, Le Havre, 2016. http://www.theses.fr/2016LEHA0025/document.

Texte intégral
Résumé :
Le but de cette étude était de considérer la possibilité de la mise en œuvre de l’approche d'apprentissage par problèmes (APP), Problem Based Learning (PBL), comme une méthodologie d'enseignement, épistémologiquement solide, pour enseigner l'anglais de spécialité (ASP), en particulier, dans le domaine académique de la médecine, English for Academic Medical Purposes (EAMP). Dans un premier temps, l'étude a examiné si PBL est compatible avec l'enseignement des langues et a cherché à déterminer les avantages que cette méthode peut apporter à l'enseignement de l'ASP. L'étude a également tenté de résoudre des problèmes d'apprentissage en anglais qui ont été identifiés dans les Collèges de Santé de l’Année préparatoire (Branche Féminine) au sein de l'Université de Hail, Arabie Saoudite. Une analyse des besoins a été menée dans l'institution pour mieux identifier ces problèmes d'apprentissage. En conséquence, PBL a été mis en œuvre pour déterminer si cette approche est capable de fournir une solution possible à la question, puisque PBL a été initialement mis en œuvre en médecine pour faire face à des problèmes similaires. Cela a entraîné un changement dans les niveaux macro-méthodologique et micro-méthodologique, comme Demaizière (1996 ; 66) les appelle. Dans la partie empirique, une étude longitudinale a été menée avec 13 étudiantes qui ont été observées dans une période de 8 semaines au cours de cinq PBL tutoriels, qui a eu lieu pendant quinze séances. En général, les résultats étaient en faveur de la mise en œuvre de cette approche dans l'enseignement de l'anglais médical. Ils ont également montré que PBL peut améliorer l'autonomie des apprenants ; leurs permettre de développer des stratégies d'apprentissage ; les aider à exploiter leurs compétences linguistiques ; et d'apprendre le contenu orienté vers leur domaine
The purpose of this study was to consider the implementation of Problem Based Learning (PBL) as an epistemologically sound teaching methodology to teach English for Specific Purposes (ESP) and particularly English for Academic Medical Purposes (EAMP). The study examined whether PBL is compatible with language teaching and determined the benefits that this methodology can bring to ESP. The study also attempted to solve problems with English learning that were identified in the Preparatory Year Health Colleges (Female Branch) within Hail University, Saudi Arabia. A needs analysis was conducted in the institution to examine the English learning situation and better identify these learning problems. Then PBL was implemented to determine if it provided a possible solution to the issue. This entailed a change in the macro-methodological and micro-methodological levels, as Demaizière (1996) called ‘le niveau macromethodologique’ and ‘le niveau micromethodologique’ (p.66). In the empirical part of this study, a longitudinal study was conducted with 13 students who were observed through a period of 8 weeks and over five PBL tutorials, which took place over fifteen sessions. During these fifteen sessions, learners’ behaviors or indicators of autonomy were observed at the group level for the first and third session of each PBL tutorial and at the individual level in session 2. In general, the results favored the implementation of this approach in teaching English for Academic Medical Purposes (EAMP). They also showed that PBL can improve learners’ autonomy; enable learners to develop learning strategies; help learners harness their language skills; and learn content oriented to their field
Styles APA, Harvard, Vancouver, ISO, etc.
27

Bordelois, Boizán Alejandro. « Développements de méthodes d'acquisition et de traitement du signal robustes aux défauts du champ magnétique pour la spectroscopie localisée par RMN ». Phd thesis, Université Rennes 1, 2013. http://tel.archives-ouvertes.fr/tel-00914306.

Texte intégral
Résumé :
La spectroscopie localisée par Résonance Magnétique Nucléaire (RMN) a de nombreuses applications in vivo, car cette technique permet l'étude des métabolites endogènes. Cette thèse explore dans ce contexte diverses voies d'amélioration des données de spectroscopie. La première méthode présentée, est une méthode de correction de spectre mono-voxel. Une méthode de reconstruction pour l'imagerie spectroscopique s'appuyant sur la résolution d'un système d'équations linéaires au lieu de la transformation inverse de Fourier utilisée habituellement est ensuite proposée. Cette modification permet notamment la prise en compte des défauts du champ magnétique local. Enfin, une dernière méthode qui trouve son utilité lorsque le signal est trop faible pour permettre la quantification des signaux des métabolites ou lorsque les défauts du champ magnétique sont trop importants est développée puis validée par simulation et expérimentalement.
Styles APA, Harvard, Vancouver, ISO, etc.
28

Turki, Hamza. « Développement de circulateurs à ferrite originaux par l’élaboration d’une démarche de conception fiable ». Thesis, Limoges, 2018. http://www.theses.fr/2018LIMO0094.

Texte intégral
Résumé :
Les circulateurs à ferrite sont des dispositifs essentiels et indispensables dans les chaînes de communication radiofréquences. Ils assurent l’aiguillage des signaux selon leur provenance, en favorisant la propagation de l’onde EM dans une direction plutôt que dans une autre. De ce fait, ils permettent de dissocier les signaux d’émission et de réception. Ils utilisent les propriétés d’anisotropie et de non-réciprocité des matériaux ferrites lorsque ces derniers sont aimantés par un champ magnétique statique. Leur mise au point s’avère assez délicate. D’un point de vue industriel, pour répondre à un cahier des charges, sont souvent obligés aujourd’hui de partir de designs existants qu’ils font évoluer « au coup par coup » grâce au savoir-faire de quelques spécialistes. Des réglages longs, fastidieux, et coûteux sont donc nécessaires et ils ne garantissent pas toujours une solution optimum. Il est en outre souvent difficile d’imaginer de nouveaux designs. Le principal but de ces travaux de thèse est de mettre au point une méthode de conception fiable permettant de prendre en compte les phénomènes physiques mis en jeu (perméabilité tensorielle, effets magnétostatiques, modélisation numérique robuste) afin d’obtenir des dispositifs opérationnels, sans réglage et aux performances optimisées
Biased ferrite circulators have known a great technological progress, searching for fulfill the exponential growth of many new applications. Their operation is directly linked to the anisotropic characteristic of ferrite material to create non-reciprocity phenomenon. Their design remains quite complicated in view of several limitations of their high-frequency modelization. The main goal of this thesis is to establish a complete methodology which aims to take into account all the physical features related to such a device, to offer a reliable results with optimized performances and to minimize the post-tuning step which remains problematic for the industry of circulators
Styles APA, Harvard, Vancouver, ISO, etc.
29

Champetter, Philippe. « Utilisation des propriétés des N-alkoxyamides pour la synthèse de γ- et δ- lactames hautement fonctionnalisés par des processus domino ». Thesis, Normandie, 2017. http://www.theses.fr/2017NORMLH18.

Texte intégral
Résumé :
Les hétérocycles azotés occupent une place importante en chimie organique et médicinale et, à ce titre, constituent des cibles de choix pour le développement de réactions toujours plus efficaces et faciles d’emploi. Les travaux antérieurs, réalisés au laboratoire URCOM sur l’accès aux γ-lactames, ont servi de base pour développer une méthodologie impliquant des conditions douces qui ont mis en évidence les propriétés spécifiques des N-alkoxy amides pour accéder aux γ- et δ-lactames hautement fonctionnalisés de manière hautement diastéréosélective selon un processus domino. Cette méthodologie a aussi pu être étendue aux hydantoïnes, 2-imino-thiazolidin-4-ones et thiazinan-4-ones qui constituent également des molécules étudiées en chimie médicinale. En parallèle, une comparaison de réactivité entre N-alkoxy amides et N-alkyl amides a montré la meilleure réactivité des composés N-alkoxylés pour l’obtention de ces différents hétérocycles azotés. Cette différence de réactivité a été attribuée à la possible chélation du contre anion alcalins des bases minérales utilisées dans notre approche par les N-alkoxy amides. Les conditions douces ont permis d’envisager des versions organocatalysées énantiosélectives ou multicomposantes des réactions précédentes conduisant à des résultats préliminaires intéressants
Nitrogen-containing heterocycles are key compounds in organic and medicinal chemistry and continue to attract synthetic effort for the development of more efficient and convenient reaction. Previous work carried out at the URCOM laboratory for the access to γ-lactams has provided the basis for developing a highly diastereoselective methodology under mild conditions that has demonstrated the specific properties of N-alkoxy amides, allowing the access to γ- and δ-lactams following a domino process. This methodology also allowed the access to hydantoïns, 2-imino thiazolidin-4-ones and thiazinan-4-ones which are compounds of importance in medicinal chemistry. In parallel, a comparison of reactivity between N-alkoxy and N-alkyl amides was carried out in order to demonstrate the better reactivity of the N-alkoxy amide compounds. This better reactivity was attributed to a possible chelation of the alkali metal counter anion of the mineral bases used in our conditions by the N-alkoxy amides. These mild conditions allowed organocatalyzed enantioselective or multicomponents approaches providing interesting preliminary results
Styles APA, Harvard, Vancouver, ISO, etc.
30

Loricourt, Johan. « Réalisation de liaisons céramique-métal par brasage dans une cellule prototype d’électrolyse de la vapeur d’eau à haute température pour la production d’hydrogène ». Thesis, Montpellier 2, 2011. http://www.theses.fr/2011MON20037.

Texte intégral
Résumé :
L'électrolyse de la vapeur d'eau à haute température et sous pression avec des électrolytes à conduction protonique est un moyen envisagé pour produire massivement de l'hydrogène à un coût compétitif. Pour être fonctionnelle, une cellule d'électrolyse doit être hermétique vis-à-vis de l'extérieur et entre le compartiment anodique (O2 et H2O) et le compartiment cathodique (H2). Ainsi, la réalisation de liaisons céramique-métal est nécessaire, soit pour l'intégration de l'électrolyte (liaison perovskite-métal), soit pour l'intégration d'alimentations électriques (liaison alumine-métal). Compte-tenu des conditions de fonctionnement de la cellule (600°C, 50 bars, vapeur d'eau), seul un procédé de brasage est envisageable pour réaliser des jonctions résistantes mécaniquement et hermétiques. L'expertise des processus de corrosion sous vapeur d'eau a permis de définir la partie métallique et la brasure pour cette application et a montré que des alliages spécifiques étaient requis. L'étude de métallisation des céramiques par PVD pour permettre le mouillage de la brasure au moment du brasage a montré que la présence d'une barrière de diffusion était nécessaire, pour éviter la dissolution du dépôt lors du passage à l'état liquide de la brasure. Après une étude de mouillabilité à chaud de la brasure sélectionnée sur les céramiques métallisées et les substrats métalliques, les liaisons ont été optimisées en appliquant la méthodologie des plans d'expériences sur des éprouvettes normalisées. L'ensemble des résultats a ainsi conduit au développement de liaisons céramique-métal possédant de bonnes propriétés mécaniques (Rm = 60 MPa à 20°C) et hermétiques
Steam electrolysis at high temperature and under pressure with protonic conduction electrolyte is a way to produce hydrogen massively at low cost. To operate, an electrolysis cell must be hermetic especially between the anodic compartment (O2 and H2O) and the cathodic one (H2). Thus, ceramic to metal assemblies are needed, either to insert the electrolyte (perovskite-metal junction) or to realize power supply (alumina-metal junction).Considering the operating conditions (873°K, 725 PSI, steam), only a brazing process is possible to realize strong and hermetic junctions.The evaluation of corrosion process under steam pressure has enabled to select a metallic component and a brazing alloy for this application, and has shown that specific alloys are needed.The studies of ceramics metallization by PVD to assure the brazing alloy wetting throughout the brazing process have shown that a barrier diffusion was necessary to avoid the dissolution of coatings when the brazing alloy become liquid.After wetting experimentations of the chosen brazing alloy over the metalized ceramics and the metallic substrate, ceramic to metal assemblies have been optimized in applying the experimental design methodology on standard samples (ASTM).The whole results have enabled to develop hermetic ceramic to metal assemblies having good mechanical properties (Rm = 8700 PSI at 300°K)
Styles APA, Harvard, Vancouver, ISO, etc.
31

Giovanetti, Canteri Maria Helene. « Caractérisation comparative de la pectine obtenue par extraction acide à partir de résidus de fruit de la passion (Passiflora edulis) et optimisation de la qualité par plan d'expériences ». Phd thesis, Université d'Avignon, 2010. http://tel.archives-ouvertes.fr/tel-00480892.

Texte intégral
Résumé :
Les substances pectiques, polysaccharides du groupe des fibres alimentaires, sont largement utilisées comme agents gélifiants et stabilisants dans l'industrie alimentaire. Le principal procédé industriel pour l'obtention de la pectine est basé sur la solubilisation de la protopectine du marc du pomme ou du péricarpe d'agrumes, réalisée dans des conditions faiblement acide à chaud. Des travaux récents ont montré l'extraction de pectine de nouvelles matières premières et en utilisant différentes conditions, qui influencent le rendement et la qualité du produit final. Le Brésil est le plus grand producteur et consommateur mondial de fruit de la passion et les résidus de l'industrie du jus sont encore sous-utilisées. Ces écorces pourraient être une matière première alternative pour l'extraction de pectine. La quantité de ce sous-produit par année pourrait atteindre 300 mille tonnes, avec un potentiel de production de 2 mille tonnes de pectine. Le principal objectif de ce travail était d'établir un protocole d'extraction permettant de produire des pectines de qualité à partir d'écorce de fruit de la passion jaune. La caractérisation du résidu produit par les industries est la clé pour augmenter la valeur de ces produits. Ainsi, la composition des différentes fractions tissulaires de l'écorce de fruit de la passion jaune a été mesurée, ainsi que celle de la pectine extraite. Les fibres alimentaires sont le principal composant du péricarpe de fruit de la passion jaune, avec des valeurs proches de 60%, sauf pour la fraction endocarpe, la plus riche en protéines de toutes les fractions analysées. En ce qui concerne la qualité de la pectine extraite, c'est le mésocarpe qui donne les rendements les plus élevés (136 g Kg-1) avec une viscosité plus forte et une teneur en composés phénoliques totaux résiduels la plus faible (15%). La composition moyenne de cette fraction était de 3,1% de protéines; 0,6% de matières grasses ; 7,1% de cendres; 66,1% de fibres alimentaires totales ; 127 g Kg-1 de composées phénoliques, 23% de carbohydrates disponibles, 6,10% d'humidité et une valeur calorique de 242 Kcal par 100 g de produit. Les principaux composants des polysaccharides y sont le glucose (297 mg g-1), l'acide galacturonique (210 mg g-1), le xylose (32 mg g-1), le mannose (32 mg g-1) et le galactose (28 mg g-1). La pectine extraite à 80 ºC pendant 20 minutes avec 50 mm d'acide nitrique, pour un rapport liquide:solide de 1:50 (w/v) présente un degré d'estérification de 79% et de méthylation de 82%. Les pectines ont été extraites dans ces mêmes conditions de péricarpe de fruit de la passion commercial ou préparé au laboratoire, d'écorce d'agrumes et de marc du pomme. Les résultats montrent une forte influence de la matière première sur la pectine résultante et ses propriétés rhéologiques. Les caractéristiques moléculaires ont été affectées négativement quand les farines des écorces ont été soumises à de hautes températures. Des farines blanchies des fruits de la passion jaune donnent des rendements de pectine de 203,4 g kg-1 avec une teneur en acide galacturonique de 681 mg g-1, des degrés d'estérification et de méthylation de 80, une viscosité réduite de 6,8 dL g-1 et une viscosité apparente de 13,4 Pa s 103 pour une solution aqueuse à 10 g L-1. L'autoclavage et la macération avec éthanol chaud ont conduit à une réduction significative de la masse molaire (environ de trois fois) et une légère réduction du degré d'estérification (proche 20%). Des traitements thermiques sévères de matière première affectent donc la qualité de la pectine extraite. Par contre, l'absence de traitement thermique de la matière première favorise la dégradation de la pectine, par la présence d'activités pectolytiques résiduelles, mises en évidence par une libération de méthanol dans un mésocarpe fraîche lyophilisé remis en suspension aqueuse. Un blanchiment de la matière première est donc indispensable. Dans les conditions d'extraction définies ci-dessus, la pectine de pomme a présenté le rendement d'extraction le plus faible mais le degré d'estérification le plus élevé, la viscosité et la masse molaire les plus fortes. La pectine extraite de farine de fruit de la passion jaune montre des caractéristiques proches de celles de la pectine de pomme, bien que légèrement plus faibles. Cette similitude est confirmée par une analyse en composantes principales, qui a permit la discrimination entre les pectines analysées, à partir des compositions en oses neutres. La pectine extraite avec de l'eau et à froid à partir de mésocarpe de fruit de la passion jaune a des compositions en oses et un degré d'estérifications semblables à celle extraite en milieu acide à chaud, mais une masse molaire et une viscosité plus faibles. Ultérieurement, un plan d'expérience centré composite de 23 a été utilisée pour déterminer l'effet des variables indépendantes, continues et opérantes que sont la durée, la température et la concentration d'acide dans le processus d'extraction de pectine sur les variables dépendantes: rendement, degré d'estérification, teneurs et composition osidique des polysaccharides, ainsi que leur comportement rhéologique, afin de maximiser la qualité de la pectine. Les variables indépendantes étaient la durée (5-45 min), la température (63-97 ºC) et la concentration d'acide nitrique (8-92 mM). Le rendement de l'extraction et la viscosité apparent en solution saline ont été influencés significativement (> 5%) dans les essais. Les conditions idéales pour l'extraction de pectine avec la plus haute viscosité apparente et contenant les polysaccharides présentant un profil de masse molaire élevée ont été une duréecourte (5 min), une température moyenne (80 ºC) et une concentration moyenne d'acide nitrique (50 mM). Dans ces conditions, le rendement a été de 196 g kg-1 d'une pectine hautement méthylée avec une masse molaire apparent de 166.000 g mol-1, 78% d'acide galacturonique et 43 mg g-1 de sucres neutres. Néanmoins, cette pectine ne donnait pas un gel plus ferme (70% de saccharose, teneur en pectine 30 g L-1 dans un tampon citrate pH 3) que les autres échantillons analysés. Des échantillons des pectines avec des degrés d'estérification proches ont présenté des caractéristiques rhéologiques et des profils moléculaires différents. Les conditions d'extraction plus douces ont permis l'extraction de pectine des chaînes avec masse molaire plus élevée et en conséquence une viscosité plus élevée. Pour une utilisation industrielle du mésocarpe, le processus de séparation devrait inclure des opérations supplémentaires, en augmentant à la fois le coût et la durée du procédé. Cependant, étant donnée la haute valeur économique ajoutée de la pectine extraite, un traitement approprié du résidu pour l'obtention de matière première de qualité paraît primordial. Dans la mesure où il semble que le mésocarpe doive être préféré pour l'obtention d'une pectine avec une pureté et une viscosité élevées, cette fraction a été sélectionnée comme matière première pour suivre les études. Les écorces de fruit de la passion jaune, un résidu industriel du traitement de jus, peuvent constituer une matière première alternative pour extraction de pectine de haute qualité et ou une utilisation comme ingrédient fonctionnel naturel
Styles APA, Harvard, Vancouver, ISO, etc.
32

Ounis, Houdhayfa. « Conception intégrée par optimisation multicritère multi-niveaux d'un système d'actionnement haute vitesse pour l'avion plus électrique ». Phd thesis, Toulouse, INPT, 2016. http://oatao.univ-toulouse.fr/18400/1/OUNIS_Houdhayfa.pdf.

Texte intégral
Résumé :
Les avantages que présentent les systèmes électriques par rapport aux autres systèmes (mécaniques, hydrauliques et pneumatiques) ont permis d’intensifier l’électrification des systèmes embarqués à bord des aéronefs : c’est le concept d’avion plus électrique. Dans ce contexte, l’approche de conception intégrée par optimisation (CIO) de ces systèmes s’avère aujourd’hui une nécessité pour pouvoir répondre aux exigences en termes d’efficacité énergique, de fiabilité et de masse... Dans cette thèse, nous avons appliqué la CIO à une chaine de conversion électromécanique utilisée dans le système de conditionnement d’air d’un avion. Deux objectifs sont ciblés : la minimisation de la masse du système et l’augmentation de son efficacité énergétique. Ces objectifs sont intégrés à diverses contraintes hétérogènes, allant de la qualité réseau au respect de la mission de vol dans le plan couple – vitesse, en passant par la thermique,… Compte tenu de la complexité du système étudié et de son caractère multidisciplinaire, des approches de conception par optimisation dites « MDO » (pour Multidisciplinary Design Optimization) sont étudiées. En effet, au delà des compétences physiques et techniques, la conception intégrée par optimisation des systèmes complexes nécessite des efforts supplémentaires en termes de méthodologies de conception. Nous avons présenté dans cette thèse trois approches : Approches mono-niveau : séquentielle et globale ; Approche multi-niveaux, couplant niveaux système et niveau constituants (filtre, onduleur, machine) ; des formulations adaptées à notre problème de conception sont présentées afin de résoudre les problèmes liés aux optimisations mono-niveau. Les performances des différentes approches de conception sont présentées analysées et comparées. Les résultats obtenus montrent clairement les avantages que présente la formulation multi-niveaux par rapport aux approches classiques de conception.
Styles APA, Harvard, Vancouver, ISO, etc.
33

Mouhli, Karim. « Management de la reprise par un tiers : le cas des TPE saines ». Thesis, Brest, 2016. http://www.theses.fr/2016BRES0064/document.

Texte intégral
Résumé :
Les TPE sont des acteurs importants du dynamisme économique français. Chaque année, des milliers d’entre elles sont transmises. Ce phénomène n’est pas nouveau, mais l’évolution démographique des dirigeants de TPE françaises tend à en faire une préoccupation de premier plan pour les décideurs politiques et économiques. La majorité d’entre elles et, pour une part croissante, sont reprises par des repreneurs personnes physiques externes sans aucun lien avec l’entreprise. Le développement de ce type de transmission n’est pas sans poser de problèmes. La méconnaissance de l’entreprise, de son environnement par le repreneur accentue les difficultés déjà grandes de la reprise (Deschamps et Paturel, 2009). L’arrivée dans l’entreprise d’un repreneur externe est souvent vécue par les salariés comme une interruption, un changement organisationnel majeur pouvant mettre en péril la poursuite de l’activité. Le fait que l’entreprise soit saine au moment du rachat interfère sur la manière dont le changement est appréhendé par les salariés. Ce dernier pouvant être interprété comme une menace, la possibilité de perdre une situation antérieure jugée satisfaisante. Les spécificités caractérisant la TPE rendent l’événement particulièrement intense sur le plan émotionnel et relationnel. La présente étude s’attache à explorer l’entrée en fonction du repreneur, dernière étape du processus repreneurial, à travers les interactions entre acteurs. Basés sur une étude de cas multiples (10 cas analysés, 31 entretiens), les résultats mettent en évidence un processus dénommé reconstruction collective de sens post-reprise. Ils montrent également l’existence de plusieurs facteurs individuels, organisationnels et contextuels exerçant une influence notable sur le processus
TPE are playing an important role in the French economic dynamism. Each year, thousands of them are transmitted. This phenomenon is not new, but the demographic evolution of French TPE leadership tends to create a major concern for political and economic decision makers. The majority of them and, for a growing share ours times by external individuals buyers with no connection to the company. The development of this type of transmission is not coming without its problems. Ignorance of the company, its environment by the buyer increases the already great difficulties of the recovery (Deschamps and Paturel, 2009). The arrival in the company of an external buyer is often experienced by employees as an interruption, a major organizational change that could jeopardize the continuation of the activity. The fact that the company is healthy at redemption interfere with the way the change is apprehended by the employees. This can be interpreted as a threat, the possibility of losing a satisfactory situation before. The specificities characterizing the TPE make the event particularly intense emotional and relational. This study aims to explore the inauguration of the buyer, the last step repreneurial process, through interaction between actors. Based on a multiple case study (10 cases analyzed, 31 interviews), the results show a process called collective reconstruction of post-recovery direction. They also show the existence of a number of individual, organizational and contextual factors with significant influence on the process
Styles APA, Harvard, Vancouver, ISO, etc.
34

Chenini, Hanen. « A rapid design methodology for generating of parallel image processing applications and parallel architectures for smart camera ». Thesis, Clermont-Ferrand 2, 2014. http://www.theses.fr/2014CLF22459.

Texte intégral
Résumé :
Dû à la complexité des algorithmes de traitement d’images récents et dans le but d'accélérer la procédure de la conception des MPSoCs, méthodologies de prototypage rapide sont nécessaires pour fournir différents choix pour le programmeur de générer des programmes parallèles efficaces. Ce manuscrit présente les travaux menés pour proposer une méthodologie de prototypage rapide permettant la conception des architectures MPSOC ainsi que la génération automatique de système matériel / logiciel dédié un circuit reprogrammable (FPGA). Pour faciliter la programmation parallèle, l'approche MPSoC proposée est basée sur l’utilisation de Framework « CubeGen » qui permet la génération des différentes solutions envisageables pour réaliser des prototypes dans le domaine du traitement d’image. Ce document décrit une méthode basée sur le concept des squelettes générés en fonction des caractéristiques d'application afin d'exploiter tous les types de parallélisme des algorithmes réels. Un ensemble d’expérimentations utilisant des algorithmes courants permet d’évaluer les performances du flot de conception proposé équivalente à une architecture basé des processeurs hardcore et les solutions traditionnels basé sur cibles ASIC
Due to the complexity of image processing algorithms and the restrictions imposed by MPSoC designs to reach their full potentials, automatic design methodologies are needed to provide guidance for the programmer to generate efficient parallel programs. In this dissertation, we present a MPSoC-based design methodology solution supporting automatic design space exploration, automatic performance evaluation, as well as automatic hardware/software system generation. To facilitate the parallel programming, the presented MPSoC approach is based on a CubeGen framework that permits the expression of different scenarios for architecture and algorithmic design exploring to reach the desired level of performance, resulting in short time development. The generated design could be implemented in a FPGA technology with an expected improvement in application performance and power consumption. Starting from the application, we have evolved our effective methodology to provide several parameterizable algorithmic skeletons in the face of varying application characteristics to exploit all types of parallelism of the real algorithms. Implementing such applications on our parallel embedded system shows that our advanced methods achieve increased efficiency with respect to the computational and communication requirements. The experimental results demonstrate that the designed multiprocessing architecture can be programmed efficiently and also can have an equivalent performance to a more powerful designs based hard-core processors and better than traditional ASIC solutions which are too slow and too expensive
Styles APA, Harvard, Vancouver, ISO, etc.
35

Claeys, Emmanuelle. « Clusterisation incrémentale, multicritères de données hétérogènes pour la personnalisation d’expérience utilisateur ». Thesis, Strasbourg, 2019. http://www.theses.fr/2019STRAD039.

Texte intégral
Résumé :
Dans de nombreux domaines (santé, vente en ligne, …) concevoir ex nihilo une solution optimale répondant à un problème défini (trouver un protocole augmentant le taux de guérison, concevoir une page Web favorisant l'achat d'un ou plusieurs produits, ...) est souvent très difficile voire impossible. Face à cette difficulté, les concepteurs (médecins, web designers, ingénieurs de production,...) travaillent souvent de façon incrémentale par des améliorations successives d'une solution existante. Néanmoins, définir les modifications les plus pertinentes reste un problème difficile. Pour tenter d'y répondre, une solution adoptée de plus en plus fréquemment consiste à comparer concrètement différentes alternatives (appelées aussi variations) afin de déterminer celle(s) répondant le mieux au problème via un A/B Test. L'idée est de mettre en oeuvre réellement ces alternatives et de comparer les résultats obtenus, c'est-à-dire les gains respectifs obtenus par chacune des variations. Pour identifier la variation optimale le plus rapidement possible, de nombreuses méthodes de test utilisent une stratégie d'allocation dynamique automatisée. Le principe est d'allouer le plus rapidement possible et automatiquement, les sujets testés à la variation la plus performante, par un apprentissage par renforcement. Parmi les méthodes possibles, il existe en théorie des probabilités les méthodes de bandit manchot. Ces méthodes ont montré leur intérêt en pratique mais également des limites, dont en particulier une temps de latence (c'est-à-dire un délai entre l'arrivée d'un sujet à tester et son allocation) trop important, un déficit d'explicabilité des choix et la non-intégration d’un contexte évolutif décrivant le comportement du sujet avant d’être testé. L'objectif global de cette thèse est de proposer une méthode générique d'A/B test permettant une allocation dynamique en temps réel capable de prendre en compte les caractéristiques des sujets, qu'elles soient temporelles ou non, et interprétable a posteriori
In many activity sectors (health, online sales,...) designing from scratch an optimal solution for a defined problem (finding a protocol to increase the cure rate, designing a web page to promote the purchase of one or more products,...) is often very difficult or even impossible. In order to face this difficulty, designers (doctors, web designers, production engineers,...) often work incrementally by successive improvements of an existing solution. However, defining the most relevant changes remains a difficult problem. Therefore, a solution adopted more and more frequently is to compare constructively different alternatives (also called variations) in order to determine the best one by an A/B Test. The idea is to implement these alternatives and compare the results obtained, i.e. the respective rewards obtained by each variation. To identify the optimal variation in the shortest possible time, many test methods use an automated dynamic allocation strategy. Its allocate the tested subjects quickly and automatically to the most efficient variation, through a learning reinforcement algorithms (as one-armed bandit methods). These methods have shown their interest in practice but also limitations, including in particular a latency time (i.e. a delay between the arrival of a subject to be tested and its allocation) too long, a lack of explicitness of choices and the integration of an evolving context describing the subject's behaviour before being tested. The overall objective of this thesis is to propose a understable generic A/B test method allowing a dynamic real-time allocation which take into account the temporals static subjects’s characteristics
Styles APA, Harvard, Vancouver, ISO, etc.
36

Lepitre, Thomas. « Modulation des Processus Domino au départ des Accepteurs de Michael en série Chromone : Diversité par aza-Cyclisation, Arylation et Aryloxylation Métallocatalysées : Diversité par aza-Cyclisation, Arylation et Aryloxylation Métallocatalysées ». Thesis, Normandie, 2017. http://www.theses.fr/2017NORMLH31/document.

Texte intégral
Résumé :
Le concept de la DOS (Diversity-Oriented Synthesis) est une nouvelle approche qui vise à générer des collections de petites molécules avec des hauts degrés de diversité et de complexité structurale. Diverses stratégies ont été mises en place pour y parvenir de manière la plus efficace possible à partir de simples substrats de départ.Dans ce contexte, ce travail de thèse a permis de montrer comment un processus domino avait tout le potentiel à être exploité en tant que formidable outil dans le cadre d’une approche DOS, générateur à la fois de complexité mais également de diversité structurale. Un précurseur connu et largement étudié pour son caractère exceptionnellement versatile a été valorisé dans ce contexte : la 3-formylchromone. Dans ce manuscrit, nous montrerons comment il est possible de moduler le cours d’un processus domino pour atteindre de hauts degrés de diversité structurale, à partir des chromones accepteurs de Michael-1,6 et d’amines primaires. Nous verrons en particulier comment le contrôle d'une ou de plusieurs étapes clefs des séquences réactionnelles impliquées peut être réalisé selon :(I) la modulation pertinente d’une ou plusieurs unité(s) de structure au sein des substrats de départ, (II) la modulation des paramètres réactionnels (solvants, température, additifs), et(III) l’induction d’un changement de réactivité au sein d’un intermédiaire réactionnel par addition d’un agent externe
In the early 2000s a general consensus has emerged in which the molecular diversity within a given library of small molecules, rather than its size, has been recognized as a crucial requirement. Diversity-oriented synthesis (DOS) has emerged from this new paradigm. This novel approach aims to generate collections of small molecules with high degrees of structural diversity, in the most efficient way, starting from simple building-blocks. Since the generation of collections of structurally diverse small molecules in a DOS-driven approach constitutes a real challenge, diverse strategies have been set up for this purpose.In this line, this work has shed light on the great potential of a domino process as a valuable tool in a DOS-driven strategy, capable of generating both molecular diversity and architectural complexity. This study has been focused on the 3-formylchromone building block, a particular framework which has already proven being an exceptionally versatile precursor of molecular diversity. In this manuscript, we will highlight how it is possible to modulate the course of a domino process to achieve high degrees of molecular diversity, starting from the chromone based 1,6-Michael acceptors platform and primary amines as reaction partners. In particular we will show how it is feasible to control the course of particular steps involved in the domino process through: (I) the pertinent modulation of the Michael acceptors and the primary amines structures, (II) the modulation of the reaction parameters (solvent, temperature, additives), and (III) the tuning of the reactivity within a key reaction intermediate induced by the introduction of an external agent
Styles APA, Harvard, Vancouver, ISO, etc.
37

Ihiawakrim, Dris. « Etude par les techniques avancées de microscopie électronique en transmission de matériaux fragiles ». Thesis, Strasbourg, 2019. http://www.theses.fr/2019STRAE005/document.

Texte intégral
Résumé :
Le travail présenté dans ce manuscrit a montré l’importance du développement méthodologique et technique pour identifier et débloquer les verrous empêchant l’analyse de matériaux hybrides et complexes qui se dégradent sous irradiation par un faisceau d’électrons. Nous avons mis en évidence que des dégâts sur l’échantillon produits par les électrons n’apparaissent qu’au-dessus d'un certain seuil de densité de courant électronique qui dépend de la nature du matériau et de ses caractéristiques morphologiques et structurales. Ces développements couplés à la Cryo-EM, nous ont permis de mettre en évidence l’architecture des matériaux hybrides à base de carbone, la variation de la distance lamellaire dans une pérovskite en fonction de la molécule insérée et le positionnement du métal, d’identifier les interactions à l’interface entre deux cristaux moléculaires et la quantification 3D de la fonctionnalisation d’un MOF. Dans la dernière partie, nous avons mis en évidence les processus de nucléation et de croissance d’oxyde de fer par MET in-situ en phase liquide
The present manuscript shows the importance of methodological and technical development to identify and to unblock locks preventing the analysis of hybrid and complex materials that undergo degradation under electron beam irradiation. We have shown that beam-induced damage to the sample only appears above some specific threshold of current density. Such a threshold depends on the nature of the material and on its morphological and structural characteristics. These developments in synergy with the use of Cryo-EM, allowed us to expose the architecture of carbon-based hybrid materials, measure the variation of the lamellar distance in a perovskite according to the molecular spacer and to the positioning of the metal, identify the interactions at the interface between two molecular crystals, and the 3D quantification of the functionalization within a MOF. Lastly, we brought to light the processes of nucleation and growth of iron oxide by in-situ liquid phase TEM
Styles APA, Harvard, Vancouver, ISO, etc.
38

Corron, Louise. « Juvenile age estimation in physical anthropology : a critical review of existing methods and the application of two standardised methodological approaches ». Thesis, Aix-Marseille, 2016. http://www.theses.fr/2016AIXM5015.

Texte intégral
Résumé :
L’âge est un paramètre du profil biologique des individus immatures que l’on peut estimer de manière suffisamment fiable et précise. Les méthodes utilisées ne respectent pas toutes des critères méthodologiques valides et sont donc relativement critiquables. Une analyse de 256 méthodes utilisées en anthropologie biologique a qualifié et quantifié les biais et limites de construction et d’application et propose une classification objective des méthodes mettant en évidence celles qui sont valides. Cette analyse a servi à élaborer le protocole d’une nouvelle méthode standardisée. Les surfaces de l’os iliaque, la cinquième vertèbre lombaire et la clavicule ont été reconstruites à partir de CT scans avec le logiciel AVIZO®. Des variables biométriques et non-biométriques ont été obtenues sur ces trois os. Des équations non-paramétriques de type Multivariate Adaptive Regression Splines (MARS) prédisant l’âge à partir des variables ont été calculées avec le logiciel statistique R®. Les variables iliaques, les hauteurs latérales vertébrales et la longueur maximale de la clavicule ont donné les meilleures prédictions de l’âge. Aucune différence significative entre les âges réels et estimés n'a été observée sur trois échantillons-test de Marseille, Toulouse et la collection ostéologique Luis Lopes. Les résultats sont meilleurs ou comparables à ceux d’autres méthodes. Des probabilités d’âge en fonction des indicateurs non-biométriques ont donné des résultats suffisamment fiables, mais pas assez précis pour être valides. Notre méthode d’estimation de l’âge a 95% de fiabilité et 90% de justesse. Elle est statistiquement valide et utilisable en contexte médico-légal et archéologique
Age is one of the parameters of a juvenile biological profile that can be estimated with sufficient reliability and precision. Many juvenile age estimation methods do not follow valid methodological criteria. A critical analysis of 256 methods used in physical anthropology was done to qualify and quantify biases and limitations of method construction and application. An objective and practical classification of methods highlighting those respecting valid sampling protocols and statistical criteria was constructed. This analysis provided a protocol for a new standardised juvenile age estimation method. Surfaces of the iliac bone, fifth lumbar vertebra and clavicle were reconstructed from CT scans of individuals from Marseilles using the AVIZO® software. Biometric growth variables and non-biometric maturation indicators were taken on the three bones. Non-parametric Multivariate Adaptive Regression Splines (MARS) models were calculated with the R® software to predict age using the variables. The best models were obtained with variables of the ilium, left and right vertebral heights and maximal clavicular length. These models were validated on three samples from Marseilles, Toulouse and the Luis Lopes osteological collection. They were comparable or better than other age estimation methods. Posterior probabilities of age were calculated using maturation stages of four iliac epiphyses. Results were reliable, but precision was too low for validation. Our new juvenile age estimation method can predict age with 95% reliability and 90% accuracy. It is standardised, statistically valid, integrates changes in variability and is applicable in a forensic or bioarchaeological context
Styles APA, Harvard, Vancouver, ISO, etc.
39

Pirlot, Barbara. « De l'appartenance générique à la dynamique de l'échange : une analyse linguistique de témoignages recueillis par la Fondation Auschwitz ». Doctoral thesis, Universite Libre de Bruxelles, 2007. http://hdl.handle.net/2013/ULB-DIPOT:oai:dipot.ulb.ac.be:2013/210727.

Texte intégral
Résumé :
Notre propos consiste à décrire et à analyser certains témoignages recueillis par la Fondation Auschwitz en nous inspirant des recherches menées, notamment, en sociolinguistique, en ethnographie de la communication, en pragmatique, en Analyse des Conversations et en Analyse du Discours. Il s’agit, en d’autres termes, d’évaluer l’incidence que revêt, au niveau linguistique, l’inscription de la parole des témoins dans des matrices socio-discursives et interactionnelles particulières (discours oral, témoignage, entretien filmé, récit de l’expérience concentrationnaire). Pour cette étude, nous avons donc privilégié une approche transversale des données qui consiste à observer de manière circonstanciée, et à recenser statistiquement, un ensemble bien cerné de phénomènes microdiscursifs de surface :certains mots du discours (connecteurs et autres marqueurs discursifs) et certaines séquences discursives spécifiques (interventions des interviewers, gloses, séquences justificatives, etc.). Bien qu’elle se veuille principalement inductive et descriptive, notre démarche consistera à pratiquer un va-et-vient incessant entre une observation micro-analytique et une mise en perspective macro-analytique. En somme, partant de phénomènes très fins, nous aimerions décrire ce qui fait, globalement, la particularité de nos données, caractériser le comportement interactionnel et discursif de nos témoins et, ainsi, mettre en évidence certaines des régularités qui relient entre eux les divers objets de notre corpus. En d’autres mots, nous aimerions montrer comment l’examen des phénomènes microlinguistiques permet d’appréhender des mécanismes plus généraux. Les niveaux d’analyse micro- et macro-discursifs, loin de fonctionner de manière dichotomique comme c’est habituellement le cas, seront donc envisagés de manière interdépendante.

Notre dissertation s’articule en cinq grandes parties, qui abordent toutes, peu ou prou, la notion de genre. Nous commençons (partie I) par envisager cette question de manière frontale, en essayant de définir le concept de genre en termes théoriques. Il s’agit d’expliquer clairement en quoi la problématique de l’appartenance générique peut s’avérer pertinente pour l’appréhension et la description de nos données. Dans la deuxième partie de ce travail, nous offrons une caractérisation très générale et succincte des récits sur la Shoah. Nous soulignons, notamment, les particularités nées du contexte politique et socioculturel où ces textes ont été produits. Ces précisions nous permettent de présenter plus en détail nos propres données, et de les comparer aux autres témoignages relatifs au phénomène concentrationnaire. Entrant ensuite dans le vif du sujet, nous consacrons notre troisième partie à la dimension testimoniale des données. Dans un premier temps, nous essayons de définir la notion même de témoignage, en cernant le plus précisément possible les contraintes définitoires propres à l’énonciation testimoniale et les questions épistémologiques qu’elles peuvent engendrer. Dans un second temps, et en accord avec notre projet méthodologique, nous relevons et analysons un certain nombre d’indices linguistiques qui nous paraissent spécifiques du discours testimonial. Dans la quatrième partie, qui se veut plus personnelle, nous nous attardons sur la dimension interactionnelle de notre corpus. Nous commençons par décrire les aspects liés à l’organisation structuro-séquentielle des interactions, en présentant deux modèles d’analyse élaborés à cet effet :le système de prise de tour et le modèle des paires adjacentes. Nous décrivons ensuite, dans ce cadre, les traits caractéristiques propres au format de l’interview. Enfin, grâce à l’analyse – qualitative et quantitative – à la fois des interventions produites par les interviewers et de certains marqueurs microdiscursifs utilisés par les interviewés, nous nous efforçons non seulement de cerner les phénomènes microdiscursifs propres au mode interactionnel de l’entretien, mais aussi de souligner, de façon peut-être paradoxale, les transgressions qui s’observent par rapport à ce format prédéterminé. Ce faisant, nous rejoignons nos réflexions antérieures sur l’instabilité inhérente à la notion de genre. Pour boucler la boucle, nous revenons sur cette question dans notre cinquième partie, où nous illustrons les réussites et les échecs discursifs de nos témoins par l’analyse détaillée de trois extraits qui mettent en évidence les défis rhétoriques liés à la complexité générique des discours envisagés.
Doctorat en philosophie et lettres, Orientation linguistique
info:eu-repo/semantics/nonPublished

Styles APA, Harvard, Vancouver, ISO, etc.
40

Leroux-Beaudout, Renan. « Méthodologie de conception de systèmes de simulations en entreprise étendue, basée sur l'ingénierie système dirigée par les modèles ». Thesis, Toulouse 3, 2020. http://www.theses.fr/2020TOU30089.

Texte intégral
Résumé :
Ce manuscrit présente une méthodologie pour la conception de systèmes de simulation de modèles en entreprise étendue, basée sur l'ingénierie système dirigée par les modèles. Le but est de permettre à l'architecte système d'explorer des solutions alternatives et de vérifier et/ou valider l'architecture du système en cours de conception, en regard des exigences et besoins des parties prenantes. Cette méthodologie se décline suivant deux axes complémentaires : la partie méthode et les moyens d'exécution, sans lesquels il ne peut y avoir de simulation. Cette nouvelle méthode se fonde sur le principe suivant : partir des exigences utilisateur pour créer les modèles d'architecture système, puis en dériver l'architecture de simulation, développer les modèles exécutables et exécuter la simulation en relation avec les objectifs de vérification et/ou validation. En agissant ainsi, les écarts d'interprétations potentiels entre le modèle d'architecture système et les modèles de simulation sont supprimés ou à tout le moins réduits, par rapport à une approche traditionnelle. Cette nouvelle méthode est de type matriciel. Les colonnes représentent les acteurs, tandis que les lignes correspondent aux différentes étapes de la méthode MBSE employée par l'architecte système pour le produit, y compris les étapes de raffinements. Les acteurs sont l'architecte système pour le produit (SyA), un premier nouvel acteur introduit par cette méthode : l'architecte système pour la simulation (SiA), les développeurs des modèles exécutables de simulation (SMD). Un second nouvel acteur est en charge de l'exécution de la simulation (SEM) au sein de chacune des entreprises, en charge de l'analyse et de la production des résultats exploitables par l'architecte système pour le produit. Avec cette méthode matricielle, le SyA peut demander des simulations, soit en profondeur pour préciser un point particulier de son modèle, soit en extension pour vérifier la bonne concordance des fonctions entre elles, tout en réutilisant des fonctions déjà définies durant les étapes amont ou aval de ses décompositions précédentes. Au global, gains de temps, de coûts, et de confiance. Le deuxième axe de cette méthodologie concerne la réalisation d'une plateforme de cosimulation en entreprise étendue (EE), qui est un projet en soi. Le MBSE a permis de définir une architecture fonctionnelle et physique de cette plateforme de cosimulation qui peut être amendée en fonction des besoins exprimés par l'architecte de la simulation. La proposition introduit un troisième nouvel acteur : le Infrastructure Project Manager (IPM) qui est en charge de la coordination pour la réalisation de la plateforme de cosimulation, au sein de son entreprise. Pour une EE de type donneur d'ordres à soustraitants, introduction de deux nouveaux acteurs : le superviseur d'IPM et le responsable de l'exécution des simulations (SEM), dont leurs rôles respectifs sont de faire le lien avec leurs pendants chez les partenaires
This manuscript presents a methodology for the design of "early" simulations in extended enterprise, based on model-driven system engineering. The goal is to allow the system architect to explore alternative solutions, and to verify and/or validate the system architecture being designed, in relation to the user requirements. This methodology is divided into two complementary axes : the method part (new) and the means of execution, without which there can be no simulation. This new method is based on the following principle : starting from the user requirements to create the system architecture model, then derive the simulation architecture, develop the executable models and run the simulation in relation to objectives of verification and/or validation. By doing this, potential differences in interpretations between the system architecture model and simulation models are removed or at least reduced compared to a traditional approach. This method is of matrix type. The columns represent the actors, while the lines correspond to the different steps of the MBSE method used by the system architect for the product, including the refinement steps. The actors are the system architect for the product (SyA), a first new actor introduced by this method : the system architect for the simulation (SiA), the developers of the simulation executable models (SMD), and the second new actor in charge of the execution of the simulation (SEM). The analysis of its qualities and the production of results exploitable by the system architect for the product. As the method relies on a matrix structure, the SyA can request simulations, either in depth to specify a particular point of its model, or more in extension to check the good agreement of the functions between them. With this new matrix approach, the system architect for the product can reuse functions already defined during the upstream or downstream stages of its previous decompositions. Overall, saving time, costs, and confidence. The second axis of this methodology is the realization of an extended enterprise cosimulation (EE) platform, which is a project in itself. Based on a proposal of requirements specifications, the MBSE has defined a functional and physical architecture. The architecture of this platform can be modified according to the simulation needs expressed by the architect of the simulation. This is one of his prerogatives. The proposal introduces a third new player : the Infrastructure Project Manager (IPM) which is in charge of coordinating for the realization of the cosimulation platform, within his company. For an EE of federated type, that is to say from contractor to subcontractor, introduction of two new actors : - the supervisor of IPM, whose rôle is to link IPMs to solve the administrative and interconnection problems, - the person responsible in charge of the execution simulations. He coordinates, with the SEM of each partner, the implementation of simulations, ensures launches, and returns the results to all partners
Styles APA, Harvard, Vancouver, ISO, etc.
41

Adiutantov, Nikolai. « Développement d'une instrumentation et méthodologie par l'étude des bruits électrochimiques pour le diagnostic des stacks de pile à combustible de type PEMFC ». Thesis, Poitiers, 2017. http://www.theses.fr/2017POIT2313/document.

Texte intégral
Résumé :
Le développement de la technologie « piles à combustible » nécessite l'utilisation d'outils de diagnostic adéquats notamment pour le monitoring de l'état de santé des systèmes industriels (stacks) dans les conditions réelles de fonctionnement. L'utilisation des moyens traditionnels de diagnostic nécessite l'arrêt ou la perturbation du fonctionnement du système. Le travail de cette thèse vise le développement d'une approche innovante non intrusive pour le diagnostic des stacks PEM (Proton Exchange Membrane), basée sur la mesure des petites fluctuations électriques (bruits électrochimiques). Pour mesurer les bruits, un système d'acquisition des faibles signaux à haute fréquence a été utilisé sans filtrage analogique préalable. Ces mesures ont été dans le cadre du projet ANR « Propice » pour quatre campagnes de mesures avec la collaboration du FCLAB et du CEA LITEN. Les mesures des bruits électrochimiques, sur plusieurs semaines, ont permis de construire une base de données extrêmement riche. Pour traiter ces données, différents approches statistiques dans le domaine temporel, fréquentiel et tempo-fréquentiel ont été utilisés pour la génération de descripteurs fiables et robustes. Il a été démontré que la mesure des bruits permet d'obtenir une riche signature des stacks PEM dans un vaste domaine fréquentiel. Cette signature reflète les différents phénomènes physico-chimiques et est très sensible aux paramètres de fonctionnement du système. L'évolution de cette signature au court de temps peut être utilisée pour le diagnostic in-situ de d'état de santé des stacks commerciaux dans les conditions réelles de fonctionnement et pour le développement des moyens de pronostic
Fuel cell technology development requires adequate diagnostic tools, in particular for monitoring the state of health of industrial systems (stacks) under operating conditions. Traditional diagnostic tools require to stop or disrupt the system operating. This thesis aims at the development of an innovative and non-intrusive approach for the diagnostic of PEM (Proton Exchange Membrane) fuel cell stacks. The methodology is based on the measurement of small electrical fluctuations (electrochemical noise). To measure this noise, a high frequency signal acquisition system was used without prior analog filter. These measurements were obtained within the ANR project « Propice » using four measurement campaigns with the collaboration of FCLAB and CEA LITEN. Electrochemical noise Measurements, over several weeks, made it possible to build a rich database. To process these data, different statistical approaches in time, frequency and tempo-frequency domains have been used for the generation of reliable and robust descriptors. It has been shown that the measurement of noise makes it possible to obtain a rich signature of the PEM stacks in a wide frequency range. This signature reflects the various physico-chemical phenomena and it is very sensitive to the operating parameters of the system. The evolution of this signature in short time analysis can be used for an in-situ diagnostic of the state of health of commercial stacks under real operating conditions and for the development of prognostic strategies
Styles APA, Harvard, Vancouver, ISO, etc.
42

Chidikofan, Grâce. « Développement méthodologique pour l'évaluation des performances et de la durabilité des systèmes de production d'électricité par gazéification de biomasse en milieu rural : Etude de cas au Burkina-Faso ». Thesis, Paris, ENSAM, 2017. http://www.theses.fr/2017ENAM0063/document.

Texte intégral
Résumé :
Le but de cette thèse est de développer une méthodologie permettant d’évaluer les performances et la durabilité des systèmes de production d’électricité par gazéification de biomasse en milieu rural en pays en développement. Cette thèse propose un cadre méthodologique général qui décrit les démarches visant: (1) à définir les critères d’évaluation de performance, (2) à choisir les méthodes ou modèles d’évaluation des critères et (3) à choisir la méthode permettant d’analyser la fiabilité de l’évaluation. A partir de ce cadre méthodologique, une méthodologie d’évaluation des systèmes de production d’électricité par gazéification de biomasse en Afrique de l’Ouest est développée. Quatorze (14) critères d’évaluation sont définis en prenant en compte les quatre dimensions de la durabilité (technique, économique, environnemental, social). Des modèles sont élaborés pour l’estimation de chacun des critères considérés. Le modèle d’évaluation global est appliqué sur un projet de système de production d’électricité par gazéification de biomasse au Burkina Faso. Douze (12) configurations de système sont évaluées pour satisfaire les mêmes profils de charge. Les résultats de simulation ont permis d’identifier d’un point de vue de l’opérateur et des consommateurs, la configuration qui permet de valoriser au mieux la ressource en biomasse locale disponible avec un coût d’électricité abordable et qui offre à l’opérateur une flexibilité relative pour s’adapter aux évolutions de la demande en énergie électrique
This thesis aims to develop a performance assessment methodology of power generation systems based on biomass gasification in a rural area case in developing countries. The general methodological framework of this thesis is described in the approaches as follow: (i) defining performance assessment criteria, (ii) selecting methods or models for assessing the criteria, and (iii) choosing the method of analyzing the reliability of the assessment. Based on this methodological framework, a methodology for the assessment of electricity generation by biomass gasification systems in West Africa is developed. Fourteen assessment criteria are defined by taking in account technical, economic, environmental and social aspects. Models are developed for the calculation of each criterion considered. The models are then applied to carry out a performance assessment of the electricity generation by biomass gasification project in Burkina Faso. Twelve (12) system configurations are studied to satisfy the same load profiles. Simulation results allowed identifying from the point of view of the operator and the consumers the configurations which give better valorization of biomass available with an affordable electricity cost and which offer to operator a relative flexibility to adapt to changes in electricity demand
Styles APA, Harvard, Vancouver, ISO, etc.
43

Hermellin, Emmanuel. « Modélisation et implémentation de simulations multi-agents sur architectures massivement parallèles ». Thesis, Montpellier, 2016. http://www.theses.fr/2016MONTT334/document.

Texte intégral
Résumé :
La simulation multi-agent représente une solution pertinente pour l’ingénierie et l’étude des systèmes complexes dans de nombreux domaines (vie artificielle, biologie, économie, etc.). Cependant, elle requiert parfois énormément de ressources de calcul, ce qui représente un verrou technologique majeur qui restreint les possibilités d'étude des modèles envisagés (passage à l’échelle, expressivité des modèles proposés, interaction temps réel, etc.).Parmi les technologies disponibles pour faire du calcul intensif (High Performance Computing, HPC), le GPGPU (General-Purpose computing on Graphics Processing Units) consiste à utiliser les architectures massivement parallèles des cartes graphiques (GPU) comme accélérateur de calcul. Cependant, alors que de nombreux domaines bénéficient des performances du GPGPU (météorologie, calculs d’aérodynamique, modélisation moléculaire, finance, etc.), celui-ci est peu utilisé dans le cadre de la simulation multi-agent. En fait, le GPGPU s'accompagne d’un contexte de développement très spécifique qui nécessite une transformation profonde et non triviale des modèles multi-agents. Ainsi, malgré l'existence de travaux pionniers qui démontrent l'intérêt du GPGPU, cette difficulté explique le faible engouement de la communauté multi-agent pour le GPGPU.Dans cette thèse, nous montrons que, parmi les travaux qui visent à faciliter l'usage du GPGPU dans un contexte agent, la plupart le font au travers d’une utilisation transparente de cette technologie. Cependant, cette approche nécessite d’abstraire un certain nombre de parties du modèle, ce qui limite fortement le champ d’application des solutions proposées. Pour pallier ce problème, et au contraire des solutions existantes, nous proposons d'utiliser une approche hybride (l'exécution de la simulation est partagée entre le processeur et la carte graphique) qui met l'accent sur l'accessibilité et la réutilisabilité grâce à une modélisation qui permet une utilisation directe et facilitée de la programmation GPU. Plus précisément, cette approche se base sur un principe de conception, appelé délégation GPU des perceptions agents, qui consiste à réifier une partie des calculs effectués dans le comportement des agents dans de nouvelles structures (e.g. dans l’environnement). Ceci afin de répartir la complexité du code et de modulariser son implémentation. L'étude de ce principe ainsi que les différentes expérimentations réalisées montre l'intérêt de cette approche tant du point de vue conceptuel que du point de vue des performances. C'est pourquoi nous proposons de généraliser cette approche sous la forme d'une méthodologie de modélisation et d'implémentation de simulations multi-agents spécifiquement adaptée à l'utilisation des architectures massivement parallèles
Multi-Agent Based Simulations (MABS) represents a relevant solution for the engineering and the study of complex systems in numerous domains (artificial life, biology, economy, etc.). However, MABS sometimes require a lot of computational resources, which is a major constraint that restricts the possibilities of study for the considered models (scalability, real-time interaction, etc.).Among the available technologies for HPC (High Performance Computing), the GPGPU (General-Purpose computing on Graphics Processing Units) proposes to use the massively parallel architectures of graphics cards as computing accelerator. However, while many areas benefit from GPGPU performances (meteorology, molecular dynamics, finance, etc.). Multi-Agent Systems (MAS) and especially MABS hardly enjoy the benefits of this technology: GPGPU is very little used and only few works are interested in it. In fact, the GPGPU comes along with a very specific development context which requires a deep and not trivial transformation process for multi-agents models. So, despite the existence of works that demonstrate the interest of GPGPU, this difficulty explains the low popularity of GPGPU in the MAS community.In this thesis, we show that among the works which aim to ease the use of GPGPU in an agent context, most of them do it through a transparent use of this technology. However, this approach requires to abstract some parts of the models, what greatly limits the scope of the proposed solutions. To handle this issue, and in contrast to existing solutions, we propose to use a nhybrid approach (the execution of the simulation is shared between both the processor and graphics card) that focuses on accessibility and reusability through a modeling process that allows to use directly GPU programming while simplifying its use. More specifically, this approach is based on a design principle, called GPU delegation of agent perceptions, consists in making a clear separation between the agent behaviors, managed by the processor, and environmental dynamics, handled by the graphics card. So, one major idea underlying this principle is to identify agent computations which can be transformed in new structures (e.g. in the environment) in order to distribute the complexity of the code and modulate its implementation. The study of this principle and the different experiments conducted show the advantages of this approach from both a conceptual and performances point of view. Therefore, we propose to generalize this approach and define a comprehensive methodology relying on GPU delegation specifically adapted to the use of massively parallel architectures for MABS
Styles APA, Harvard, Vancouver, ISO, etc.
44

Chtourou, Rim. « Tenue mécanique des assemblages soudés par point multi-tôles et acier multigrades : étude expérimentale, modélisation macroscopique et procédure d'identification ». Thesis, Valenciennes, 2017. http://www.theses.fr/2017VALE0017/document.

Texte intégral
Résumé :
Dans le cadre de la conception des structures automobiles et de la modélisation de leur tenue au crash, la prédiction du comportement mécanique et de la rupture des assemblages soudés par point par résistance, s’avère encore délicate. En introduisant une nouvelle génération d’assemblages multi-tôles en aciers multigrades soudés par point, la prédiction de leur tenue mécanique est devenue encore plus complexe. En effet, malgré une utilisation croissante de ces assemblages, l’étude expérimentale de leur comportement mécanique est encore très limitée, tandis que leur modélisation macroscopique n’a pas encore été proposée. Dans ce contexte, un dispositif expérimental approprié de type Arcan est proposé pour caractériser la tenue mécanique et la rupture des assemblages trois tôles soudés par points, en chargements purs et combinés et dans les différentes configurations possibles. Une approche de modélisation macroscopique est également proposée pour simuler le comportement des assemblages trois tôles soudés, pour des applications de type structure. Un modèle d’élément équivalent ’connecteur’ est tout d’abord proposé, identifié et validé par rapport un assemblage deux tôles soudé par point. Ensuite, une approche de modélisation utilisant trois connecteurs est proposée pour simuler le comportement mécanique et la rupture d’un assemblage trois tôles soudé par point par résistance. Une stratégie d’identification est aussi détaillée pour simplifier la procédure d’identification des paramètres du modèle. Le modèle est identifié et validé par rapport aux résultats expérimentaux des essais de caractérisation de type Arcan réalisés au cours de cette thèse
Resistance spot welding (RSW) is widely used in the automotive industry. However, the prediction of their non-linear mechanical behavior and their failure in structural crashworthiness computations remains a challenge. The introduction of a new generation ofmulti-sheet multi-steel grade spot welded assemblies makes the prediction of their mechanical strength more complex.Despite the increasing use of these assemblies, the experimental study of their mechanical behavior is still very limited, while their macroscopic modeling has not yet been studied. An experimental device based on Arcan principle is thus proposed to characterize the mechanical strength and the failure of three-sheet spot welded assemblies, in pure and combined loads for different loading configurations. A macroscopic modeling approach is also proposed to simulate their mechanical behavior for structural applications. As a first step, a ’connector’ element is proposed, identified and validated for a two-sheet spot welded assembly. Then, a modeling approach using three connectors is proposed to simulate the mechanical behavior and the rupture of a three-sheet multi- steel grade spot welded assembly. An identification methodology is also presented to simplify the identification procedure of the model parameters. The model is identified and validated based on the experimental results of the Arcan tests carried out during this thesis
Styles APA, Harvard, Vancouver, ISO, etc.
45

Cheillan, Hervé. « Analyse et conceptualisation des stratégies BoP par le prisme des performances économique et sociale : du sondage de cas aux tests empiriques ». Thesis, Aix-Marseille, 2016. http://www.theses.fr/2016AIXM2010/document.

Texte intégral
Résumé :
Les stratégies d’entreprises dites « BoP » (pour Bottom/Base of the Pyramid) impliquent la création de produits/services au bas de la pyramide économique, soit 4 milliards d’individus vivant avec moins de 9$ par jour. Les chercheurs et les professionnels expriment l’intérêt de ces stratégies mais relèvent la difficulté d’obtention simultanée des performances économique (pour la firme) et sociale (pour le marché BoP). Notre recherche doctorale s’inscrit dans cette lignée et pose les questions de recherche suivantes : « quels sont les déterminants des performances économique et sociale des stratégies BoP ? Existe-t-il une relation entre ces types de performance ? Pour y répondre, un design méthodologique en trois phases a été élaboré : (I) un sondage de cas basé sur 77 observations de stratégies BoP (II), une étude empirique quantitative basée sur un échantillon de 316 professionnels, (III) une discussion des résultats pour une proposition théorique nommée océan blanc. Les résultats montrent que pour atteindre les performances économique et sociale, l’entreprise doit, (1) avoir des motivations économique et sociale (2), acquérir et capitaliser des connaissances sur le terrain, (3) adapter le prix, la communication, le produit/service mais pas les modes/canaux de distribution, (4) réaliser des alliances sociales et (5) limiter l’influence des institutions, des acteurs locaux et des actionnaires
The so called « BoP » (for Bottom/Base of the Pyramid) strategies of companies involve products/services creation at the base of the economic pyramid that is 4 billion people living on less than 9$/day. Researchers and professionals express interest in this type of strategy but point out the difficulty of simultaneously obtaining economic performance (for the firm) and social performance (for the BoP market). Our doctoral research is in line with the following research questions: "What are the determinants of economic and social performance of BoP strategies? Does the relationship exist between these types of performance? To answer it, a three phase methodological design has been developed: (I) a case survey method based on 77 observations of BoP strategies, (II) a quantitative empirical study based on 316 professionals, (III) a discussion on results for a theoretical proposition called white ocean. The results show: to achieve the economic and social performances, the company must, (1) have economic and social motivations, (2) acquire and accumulate knowledge in the field, (3) adapt price, communications, product/service but not distribution methods/channels, (4) make social alliances and (5) limit the influence of the institutions, local stakeholders and shareholders
Styles APA, Harvard, Vancouver, ISO, etc.
46

Vigneau, Guillaume. « Etude et modélisation d’un système de transmission d’énergie et de données par couplage inductif pour des systèmes électroniques dans l’environnement automobile ». Thesis, Toulouse 3, 2016. http://www.theses.fr/2016TOU30281.

Texte intégral
Résumé :
Actuellement, les systèmes permettant de transférer de l’énergie dans le but de recharger les accumulateurs d’appareils électroniques sans l’emploi de câble se démocratisent davantage chaque jour. On comprend donc bien l’intérêt de tels systèmes dans des environnements embarqués et confinés tels que l’habitacle d’un véhicule. Le principe de l’induction magnétique réside dans un transfert de flux magnétique entre deux antennes inductives. Le champ magnétique servira de vecteur au transport d’une puissance électrique, puisque c’est au travers de cette création de flux magnétique que sera échangée ou transférée la puissance d’un émetteur vers un récepteur. Un tel système d’émission-réception de puissance utilisant le principe d’induction magnétique contient un émetteur, des antennes (bobines) inductives couplées et un récepteur. Un premier chapitre sera donc consacré à l’étude des antennes d’un point de vue théorique et technologique. Des modèles électromagnétiques d’antennes inductives seront développés, et après validation par corrélation avec des mesures électriques et électromagnétiques, ils seront employés au travers d’intenses simulations électromagnétiques. Ceci afin de montrer l’impact des paramètres définissant ces antennes inductives sur leurs comportements électrique et électromagnétique. Une fois les antennes inductives optimisées et leurs paramètres clés identifiés, on étudiera dans un deuxième temps les effets de l’induction magnétique lorsque qu’une antenne d’émission et une autre de réception sont présentées ensembles et mises en condition de transfert d’énergie. On mettra donc en évidence le principe de couplage magnétique entre les antennes ainsi que la notion de rendement de puissance appelé aussi efficacité de liaison. Les différents paramètres des antennes seront là aussi caractérisés afin d‘étudier leur influence sur le transfert d’énergie inductif. Le tout illustré de la même manière que précédemment, en s’appuyant sur d’intenses simulations électromagnétiques et des modèles validés par rapport à différentes méthodes de mesure. Ceci dans le but de comprendre les mécanismes de fonctionnement et d’optimisation d’un système de transfert d’énergie par induction magnétique ainsi que de proposer des règles générales de conception d’antennes inductives. Dans un troisième temps, on présentera les différents étages électroniques composant les systèmes de transfert d’énergie inductif. Une partie sera dédiée à la définition du point de vue système des éléments constituant la chaine complète d’émission et de réception. La conception, l’optimisation et la mesure des amplificateurs de puissance utilisés au niveau de l’émetteur seront également présentés. En effet, ces systèmes doivent être suffisamment performants afin de transférer des puissances capables d’alimenter des appareils électroniques de type téléphones tout en ayant un bilan de puissance efficace avec des pertes limitées. A partir de modèles de circuits émetteur et récepteur et en s’appuyant sur des simulations circuits, nous estimerons les bilans de puissances afin d’évaluer les performances et les limites des différents systèmes. Ces simulations une fois validées par mesures permettront de quantifier l’efficacité du transfert de puissance et proposer des voies d’optimisation. Ces systèmes et technologies sont de plus en plus utilisés pour l’électronique grand public et il existe actuellement plusieurs standards régissant le transfert d’énergie inductif. Les différentes études présentées dans cette thèse seront donc orientées vers ces différentes normes, et des analogies seront réalisées tout le long du mémoire afin de mettre en exergue leurs différents principes de fonctionnement
Nowadays there is a strong demand of systems allowing to transfer energy in a wirelessly way to small electronic devices. So we can well understand the interest of such systems in embedded environments such as vehicle cockpit. The principle of magnetic induction comes from a magnetic flux exchange between two inductive antennas. The magnetic field will be used to transport an electrical power from an emitter to a receiver. These systems using the magnetic induction to transfer energy contain an emitter, inductive antennas (coils) and a receiver. A first chapter will be dedicated to the antennas employed in inductive wireless power transfer systems on theoretical and technological points of views. An electromagnetic modeling of these inductive antennas will be realized and validated through correlation with measurements. Once the modeling process defined and the validations done, it will be used through intensive electromagnetic simulations in order to show the impact of antennas parameters on their electrical and electromagnetic performances. After the inductive antennas characterization and their key parameters identification done, we will study in a second time the magnetic induction effects when emission and reception antennas are placed together in order to realize an inductive power transfer. Notions of magnetic coupling which appears between inductive antennas and magnetic efficiency which characterizes how much quantities of power are transferred will be highlighted. In the same conditions as before, the impact of antennas parameters on the power transfer and magnetic coupling will be investigated through electromagnetic modeling of inductive antennas and the use of intensive electromagnetic simulations. Thus, we will have the opportunity to precisely understand the meaning of the inductive power transfer and the different ways of optimizations. By this way, we will also propose some general design guidelines for antennas employed in inductive wireless power transfer systems. A third chapter will be dedicated to the presentation of the different electronic stages used in inductive wireless power transfer systems. A part of it will be employed on the definitions of the different elements allowing the wireless power transfer on a system approach. The design, optimization and measurement of power amplifiers used on the emission stage will be presented too.. Indeed, it is necessary to have efficient power amplification in order to transfer the required power to different receivers such as phones at the same time to limit the power losses. From circuit modeling of different emitter and receiver and with circuit simulations, we will develop power budgets in order to evaluate the performances and limits of these systems. Once the simulation validated by measurement, we will be able to quantify the total power transfer efficiency and propose optimization ways. Because of the current existence of different inductive wireless power standards on the industrial market for electronic consumer, analogies with them will be done all along the different steps of this thesis in order to highlighted their different functioning principles
Styles APA, Harvard, Vancouver, ISO, etc.
47

Alwash, Maitham Fadhil Abbas. « Assessment of concrete strength in existing structures using nondestructive tests and cores : analysis of current methodology and recommendations for more reliable assessment ». Thesis, Bordeaux, 2017. http://www.theses.fr/2017BORD0587/document.

Texte intégral
Résumé :
Pour évaluer la résistance mécanique du béton dans un ouvrage existant, la méthodologie courante combine des mesures non destructives (CND) comme le rebond ou/et la vitesse des ondes ultrasoniques avec la technique destructive (carottes) afin de produire une relation‘‘modèle de conversion” entre la résistance mécanique et les mesures CND. Le modèle de conversion est utilisé pour estimer la valeur locale de résistance mécanique à chaque emplacement de test en utilisant la valeur CND correspondante. Ensuite, on calcule les estimations de la résistance moyenne et/ou de l’écart-type de la résistance (variabilité de la résistance du béton). Cependant, la fiabilité d’estimation est toujours discutable en raison des incertitudes associées à l’évaluation de la résistance basée sur les mesures CND. Pour améliorer la fiabilité, les incertitudes doivent être réduites en spécifiant et en contrôlant leurs facteurs d’influence. Par conséquent, l’objectif de cette thèse est d’analyser la méthodologie d’évaluation courante afin de fournir des recommandations pratiques qui peuvent améliorer la fiabilité de l’évaluation de la résistance in-situ du béton dans les ouvrages existantes par des tests non destructifs et des carottes.Pour ce but, un simulateur a été construit afin d’analyser les effets des facteurs les plus influents en utilisant une vaste campagne de données provenant de sources différentes (études in situ ou en laboratoire et données synthétiques générées). La première contribution de ce travail est le développement d’une nouvelle approche d’identification du modèle ‘‘bi-objectif” qui peut efficacement capturer la variabilité de la résistance mécanique en plus de la moyenne. Après avoir étudié l’effet du mode de sélection des emplacements pour les carottes, une méthode a été proposée pour sélectionner ces emplacements en fonction des mesures CND ‘‘sélection conditionnelle” qui améliore la qualité de l’évaluation sans coût supplémentaire. Une dernière innovation est l’établissement de courbes de risque qui quantifient la relation entre le nombre de carottes et la précision de l’estimation. Enfin, des recommandations ont été formulées afin de fournir des estimations plus fiables
To assess concrete strength in an existing structure, the current methodology combines nondestructive measurements (NDT) like rebound hammer or/and pulse velocity with destructive technique (cores) in order to implement a relationship ‘‘conversion model” between the compressive strength and NDT measurements. The conversion model is used to estimate the local strength value at each test location using the corresponding NDT value.Then the estimated mean strength and/or estimated strength standard deviation (concrete strength variability) values are calculated. However, the reliability of these estimated values isalways a questionable issue because of the uncertainties associated with the strength assessment based upon NDT measurements. To improve the reliability, the uncertainties must be reduced by specifying and controlling their influencing factors. Therefore, the objective of this thesis is to analyze the current assessment methodology in order to provide practical recommendations that can improve the reliability of assessing the in-situ strength in existing concrete structures by nondestructive tests and cores.To this end, a simulator was built in order to analyze the effects of the most influencing factors using a large campaign of datasets from different sources (in-situ or laboratory studies,and generated synthetic data).The first contribution of this work is the development of a new model identification approach“bi-objective” that can efficiently capture the strength variability in addition to the mean strength. After studying the effect of the way of selection the core locations, a method was proposed to select these locations depending on the NDT measurements “conditional selection” that improves the quality of assessment without additional cost. A third innovation was the development of a procedure to identify the relation between the number of cores and the accuracy of the estimation. Finally recommendations were derived in order to providemore reliable estimated values
Styles APA, Harvard, Vancouver, ISO, etc.
48

La, Delfa Patricio. « Contribution à la conception silencieuse par démarches directe et inverse de machines synchrones à aimants permanents et bobinage dentaire ». Thesis, Ecole centrale de Lille, 2017. http://www.theses.fr/2017ECLI0036/document.

Texte intégral
Résumé :
Cette thèse porte sur la conception silencieuse par démarches inverses de machines synchrones à aimants permanents dotées de bobinages dentaires. Notre travail se focalise sur l’analyse des raies de forces radiales à l’origine du bruit magnétique. En premier lieu, un modèle direct électromagnétique, nous a permis de déterminer le spectre spatio-temporel de la force radiale dans l’entrefer. Ce dernier nous offre la possibilité d’obtenir pas à pas et de manière analytique l’induction radiale dans l’entrefer, résultat du produit de la force magnétomotrice totale et de la perméance d’entrefer globale. Plusieurs machines dotées d’un bobinage dentaire et distribué ont été évaluées, comparées à des simulations par éléments finis et corroborés par une analyse modale opérationnelle sur un prototype existant au laboratoire. Puis la démarche inverse de conception est abordée par le biais de deux outils « analytiques prédictifs » donnant les origines des ordres faibles spatio-temporels de la force radiale dans l’entrefer. Enfin, la résolution du problème inverse est conduite au moyen d’une boucle itérative d’optimisation donnant parmi un échantillon de solutions, une fonction de bobinage, visant à atténuer ou supprimer une raie potentiellement risquée en termes de nuisances acoustiques
This thesis deals the quiet design by inverses approaches of synchronous machines with permanent magnets concentrated windings. Our work focuses on the analysis of magnetic noise origin of air gap radial force orders. Firstly a direct electromagnetic model allowed us to determine the spatio-temporal spectrum of air gap radial pressure. The latter offers us the possibility of obtaining step by step and in an analytical way the radial induction in the gap, result of the product of the total magnetomotive force and global air gap permeance. Several machines equipped with a concentrated winding and distributed were evaluated, compared to simulations by finite elements and corroborated by an operational deflection shape on an existing prototype in the laboratory. In the second time two inverse approaches named predictive methodology identified the radial pressure low order origin. Finally, the resolution of the inverse problem is carried out by means of an iterative optimization loop giving among a sample of solutions, a winding function, aimed at attenuating or eliminating a potential risky line in terms of acoustic nuisances
Styles APA, Harvard, Vancouver, ISO, etc.
49

Boyard, Nicolas. « Méthodologie de conception pour la réalisation de pièces en Fabrication Additive ». Thesis, Paris, ENSAM, 2015. http://www.theses.fr/2015ENAM0015/document.

Texte intégral
Résumé :
Le but de cette thèse est de proposer une méthodologie de conception pour la réalisation depièces en fabrication additive (FA). Par rapport aux familles de procédés de fabrication standard que sontl'enlèvement de matière, la déformation plastique et la fusion, les procédés de FA présentent descaractéristiques nouvelles permettant la fabrication de pièces en multimatériaux, d'assemblagesindémontables ou encore de formes complexes. L’arrivée de cette nouvelle technologie implique unchangement de paradigme nécessitant l’accompagnement des concepteurs dans leurs missions dedéveloppement de produits de qualité. De plus les caractéristiques mécaniques et l'état de surfaces despièces obtenues en FA dépendent de leur orientation au moment de la réalisation. Par ailleurs, en fonctiondu procédé, de la géométrie souhaitée et de cette orientation, il peut être nécessaire d'intégrer du supportafin d'assurer la fabricabilité de la pièce. Nous avons donc défini une méthodologie de conception, quirespecte l’intégrité de la chaine numérique et dont la finalité est la production d'un modèle numériquetranché prêt à être fabriqué sur une machine de FA. Pour ceci, notre méthodologie se base sur lesdonnées du cahier des charges fonctionnel (CDCF) et les connaissances métier du procédé renseignéespar le concepteur afin de lui proposer automatiquement un premier solide dont la géométrie satisfait toutesces contraintes. Une étape d'optimisation topologique vient ensuite restreindre le volume de matière utilede la pièce afin de limiter son poids, son coût et le temps de fabrication. Enfin, si nécessaire, un supportoptimisé assurant la fabricabilité de la pièce est généré selon ces mêmes critères. Cette méthodologies'accompagne d'un cas d'étude industriel ainsi que de deux expérimentations visant à observer lapossibilité d'un parachèvement à l'acétone sur des pièces réalisée en ABS. La première expérimentationest un plan d'expérience mesurant l'état de surface obtenu en s'appuyant sur la température de l'acétone,le temps d'opération, l'inclinaison des surfaces de la pièce et son épaisseur. La seconde expérimentationest un test de traction visant à observer une modification de la tenue mécanique de pièces soumises à cetraitement. Indépendamment du type de machine et du procédé de FA, la méthodologie que nousproposons est un premier pas concret vers l’obtention de pièces directement conformes, que ce soit pourdes besoins industriels ou domestiques
The aim of this thesis is to propose a design methodology to produce parts using additivemanufacturing (AM). Compared to standard manufacturing processes, as machining, forming, casting ormolding, AM processes have new features for manufacturing multi-material parts, nondetachableassemblies or complex shapes. The arrival of this new technology involves a paradigm shift that requiressupport to designers to develop quality products. Also the mechanical and finishing specifications of theparts obtained by AM depend on their orientation during the manufacturing. Furthermore, depending onthe process, the desired geometry and the orientation, it could be necessary to integrate a support in orderto ensure manufacturability of the part. We define a design methodology that respects the integrity of thedigital channel and whose purpose is to produce a sliced numerical model ready to be manufactured on anAM machine. For this, our methodology is based on data from functional specification and businessknowledge of the process indicated by the designer, to automatically propose a first solid geometry whichsatisfies all these requirements. After this first step, a step of topological optimization restricts the volumeof the part in order to reduce its weight, cost and manufacturing time. Finally, if necessary, optimizedsupport ensuring the manufacturability of the part is generated according to the same criteria. Thismethodology is accompanied by an industrial case study as well as of two experiments to observe thepossibility to finish parts made of ABS with acetone. The first experiment is an experimental design whichmeasures the obtained surface finish based on the temperature of the acetone, the operating time, theinclination of the surfaces of the piece and its thickness. The second experiment is a tensile stress testdesigned to observe a change in the mechanical resistance of the part. Regardless of the type of machineand the AM process, the methodology we propose is a first concrete step towards obtaining directlycompliant parts, whether for industrial or domestic use
Styles APA, Harvard, Vancouver, ISO, etc.
50

Ezeddini, Sonia. « Optimisation de l'usinage par le procédé d'électroérosion à fil des alliages de titane et des matériaux composites à base de titane appliqués à l'aéronautique ». Thesis, Université Paris-Saclay (ComUE), 2018. http://www.theses.fr/2018SACLC105.

Texte intégral
Résumé :
L’usinage par électroérosion est un procédé d’enlèvement de matière par fusion, vaporisation et érosion, réservé aux matériaux conducteurs et semi-conducteurs.Il peut être utilisé pour usiner les métaux et alliages, les aciers trempés, les alliages céramiques, les carbures métalliques, certaines céramiques et même des matériaux plus durs tels que le diamant polycristallin. La pièce ainsi chauffée voit ses caractéristiques mécaniques chuter et modifier, ce qui augmente son usinabilité. Les travaux réalisés ont porté sur l'influence de l'usinage par électroérosion à fil sur; l'intégrité de surface, l'usinabilité, la productivité et la précision de procédé, de plusieurs matériaux, tels que, le titane pur, l'alliage de titane Ti-6Al-4V, le composite intermétallique à base Ti-Al, le composite Ti17 et le composite Ti6242.En usinage par électro-érosion à fil, et plus précisément en finition, le procédé est caractérisé par un débit de matière, une largeur de kerf, un durcissement superficiel, une zone affectée thermiquement et un état de surface variant en fonction de plusieurs paramètres tels que, le courant de décharge, le temps d’impulsion, la tension d’amorçage, la vitesse de coupe, la pression d'injection de lubrifiant et la tension de fil.Toutefois, il s’agit d’une étude d’optimisation et de modélisation empirique des conditions de coupe des matériaux composites à base métallique et des alliages de titane, afin de maitriser et d'améliorer l'intégrité de surface usinée, d'augmenter la productivité et de perfectionner la précision du procédé. Par la suite, atteindre les exigences de la qualité et de la sûreté de fonctionnement des pièces aéronautiques.Dans cette étude, on a utilisé des méthodes de type Plan d'expériences, méthode de Taguchi et la Méthodologie des surfaces de réponses pour le calage et le contrôle des paramètres de l’usinage par électroérosion à fil, et ses conditions opératoires
EDM machining is a process for the removal of material by melting, spraying and erosion, which is reserved for conductive and semiconductor materials.It can be used for machining metals and alloys, hardened steels, ceramic alloys, metal carbides, some ceramics and even harder materials such as polycrystalline diamond. The heated part has its mechanical characteristics drop, which increases its machinability. The work carried out focused on the influence of WEDM machining on surface integrity, machinability, productivity and process precision, of several materials: pure titanium, Ti6Al4V alloy, composite intermetallicTi-Al based, Ti17 composite and Ti6242 composite.In ripping, and more precisely in finishing, the process is characterized by a flow of material,kerf width, surface hardening, heat affected zone and surface condition varying with discharge current, pulse time and voltage, cutting speed, lubricant injection pressure and wire tension.In fact, the machining conditions of metal-based composite materials and titanium alloys have been modeled and optimized to improve machined surface integrity, increase productivity, and improve process accuracy. Subsequently, meet the quality and safety requirements of aeronautical parts.Methods such as Experimental Design, Taguchi and Surface of Response were used for calibration and process control parameters and operating conditions
Styles APA, Harvard, Vancouver, ISO, etc.
Nous offrons des réductions sur tous les plans premium pour les auteurs dont les œuvres sont incluses dans des sélections littéraires thématiques. Contactez-nous pour obtenir un code promo unique!

Vers la bibliographie